
Publikation
KI verantwortungsvoll einsetzen: Unser Impact Assessment Tool
Algorithmische und KI-basierte Systeme können ethisch relevante Auswirkungen auf Menschen haben. Diejenigen, die sie einsetzen, tragen deshalb eine besondere Verantwortung. Das von AlgorithmWatch entwickelte Tool zur Folgenabschätzung unterstützt und befähigt dabei, dieser Verantwortung gerecht zu werden.

Die letzten Jahre haben gezeigt, was passieren kann, wenn Algorithmen und KI-Systeme nicht verantwortungsvoll eingesetzt werden: Menschen wurden fälschlicherweise des Sozialleistungsbetrugs verdächtigt, bei der Stellensuche diskriminiert oder aufgrund ihrer Hautfarbe oder ihrer Geschlechtsidentität als nicht kreditwürdig bewertet. Verantwortungslos eingesetzte algorithmische Systeme sind damit Lose-Lose-Szenarien. Sie können nicht nur die Interessen und Grundrechte von betroffenen Personen berühren, sie sind auch nicht im Interesse der Organisation, die sie nutzen möchte, um damit ein Problem zu lösen und bestimmte Ziele zu erreichen.
Verantwortungsvoll eingesetzte Systeme hingegen haben das Potenzial, WIN-WIN zu sein. Behörden oder Unternehmen können Transparenz schaffen, Aufsicht und Kontrolle ermöglichen sowie Verantwortlichkeiten zuweisen. Damit tun sie wesentliche Schritte, um sicherzustellen, dass ethische Prinzipien der Autonomie und Gerechtigkeit gewahrt und Grundrechte geschützt werden. Letztlich sorgen sie so dafür, dass ein System allen Beteiligten zugutekommt und ihnen nicht schadet.
Impact Assessment Tool

Das von AlgorithmWatch entwickelte Tool zur Folgenabschätzung (Impact Assessment Tool) unterstützt dabei, der besonderen ethischen Verantwortung beim Einsatz von Algorithmen & KI gerecht zu werden. Es begleitet Organisationen dabei, entlang von zwei Checklisten folgende Fragen zu beantworten, dafür ein gemeinsames Verständnis zu entwickeln und dies transparent zu machen:
1. Triage: Welche ethischen Auswirkungen könnte das System im Kontext, in dem es eingesetzt wird, haben?
➡️ Mit dieser Triage können Anwendende ermitteln, ob für das betreffende algorithmische System überhaupt eine umfassendere Folgenabschätzung verfasst werden muss und wenn ja, welche Fragen auf Stufe 2 zu beantworten sind.
2. Transparenzbericht: In einem zweiten Schritt werden die Fragen beantwortet, die mit Hilfe der Triage-Checkliste als relevant identifiziert wurden. Dabei wird deklariert:
- Ziele definieren: Welches Problem möchten wir mit dem Einsatz des KI-Systems lösen und welche Ziele verfolgen wir damit? Welche ethischen Anforderungen stellen wir uns?
- Performance messen und Verantwortlichkeiten zuweisen: Wie bewerten wir, ob unsere Ziele erreicht werden und ob wir mit ethischen Herausforderungen verantwortungsvoll umgehen? Wer ist für diese Bewertung verantwortlich? Wie gehen wir mit Feedback um?
- Resultate deklarieren: Und was zeigen diese Bewertungen?
➡️ Die Zusammenstellung dieser Antworten ergibt einen Transparenzbericht, der Ziele und Prozesse explizit macht, ein gemeinsames Verständnis schafft, Kontrolle ermöglicht und Verantwortlichkeiten zuweist.
3. Transparenz – als Chance, nicht als Bedrohung: Als dritten Schritt empfehlen wir, den resultierenden Transparenzbericht intern und wenn möglich auch extern transparent zu machen. Damit wird interne und externe Aufsicht ermöglicht, Rechenschaftspflichten sichergestellt und der verantwortungsvolle Umgang mit Algorithmen und KI unterstrichen.
➡️ Zum Impact Assessment Tool
AlgorithmWatch stellt das Impact Assessment Tool unter obigem Link zur freien Nutzung zur Verfügung. Wenn Sie sich dabei begleiten lassen möchten oder Fragen haben, melden Sie sich bei uns! Andernfalls freuen wir uns auch über Unterstützung in Form von Spenden.
HUMAN – ein umfassender Ansatz

Im Rahmen eines gemeinsamen Projektes haben wir die Folgenabschätzungsmethode von AlgorithmWatch mit einer Panel Assessment Methode von Intersections kombiniert. Das Panel Assessment ermöglicht es, relevante Stakeholder zu identifizieren und einzubeziehen, um deren Bedürfnisse zu berücksichtigen. Dazu gehören sowohl Menschen, die von den Ergebnissen des Systems betroffen sind als auch etwa Mitarbeitende, die das System nutzen. Aus diesem Projekt ist HUMAN entstanden – ein umfassender Ansatz, der es ermöglicht, ausgehend von einem konkreten Anwendungsfall eine verantwortungsvolle KI-Strategie zu entwickeln oder eine solche Strategie anhand einer spezifischen Anwendung zu testen.
Als Bestandteile von HUMAN stehen das Impact Assessment und das Panel Assessment zur freien Nutzung zur Verfügung. Wer sich dabei von Expert*innen begleiten lassen möchte, meldet sich bei Intersections und AlgorithmWatch CH.
➡️ Mehr zum Projekt HUMAN
Handlungsempfehlungen
Eine Folgenabschätzung ist ein wichtiger Schritt auf dem Weg zu einem verantwortungsvollen Einsatz von Algorithmen & KI. Gleichzeitig braucht es weitere Puzzleteile:
- Transparenz gegenüber Betroffenen: Betroffene müssen wissen, wenn sie von einem System betroffen sind und haben das Recht auf eine Erklärung, auf welcher Grundlage dieses zu seinem Ergebnis kommt.
- Aufsichtsmöglichkeiten: Im öffentlichen Sektor empfehlen wir, algorithmische und KI-basierte Systeme in einem Transparenzverzeichnis aufzuführen, in dem wesentliche Informationen zum Zweck, den verantwortlichen Akteuren, dem Modell und den Resultaten der Folgeabschätzung aufgeführt werden.
- Rechenschaft: Betroffene müssen die Möglichkeit haben, sich zur Wehr zu setzen, wenn sie denken, dass sie von einer algorithmisch beeinflussten Entscheidung falsch oder ungerecht behandelt worden sind. Der Zugang zu Rechtsmitteln muss gegeben sein, um Rechenschaft sicherzustellen.
Hier finden sich unsere umfassenden Empfehlungen für einen Einsatz von Algorithmen & KI, der Mensch und Gesellschaft tatsächlich zugutekommt:
