Publikation

KI verantwortungsvoll einsetzen: Unser Impact Assessment Tool

Algorithmische und KI-basierte Systeme können ethisch relevante Auswirkungen auf Menschen haben. Diejenigen, die sie einsetzen, tragen deshalb eine besondere Verantwortung. Das von AlgorithmWatch entwickelte Tool zur Folgenabschätzung unterstützt und befähigt dabei, dieser Verantwortung gerecht zu werden.

Bild mit Text: "Verantwortungsvoll eingesetzte KI-Systeme haben zum Ziel, Win-Win zu sein."

Die letzten Jahre haben gezeigt, was passieren kann, wenn Algorithmen und KI-Systeme nicht verantwortungsvoll eingesetzt werden: Menschen wurden fälschlicherweise des Sozialleistungsbetrugs verdächtigt, bei der Stellensuche diskriminiert oder aufgrund ihrer Hautfarbe oder ihrer Geschlechtsidentität als nicht kreditwürdig bewertet. Verantwortungslos eingesetzte algorithmische Systeme sind damit Lose-Lose-Szenarien. Sie können nicht nur die Interessen und Grundrechte von betroffenen Personen berühren, sie sind auch nicht im Interesse der Organisation, die sie nutzen möchte, um damit ein Problem zu lösen und bestimmte Ziele zu erreichen.

Verantwortungsvoll eingesetzte Systeme hingegen haben das Potenzial, WIN-WIN zu sein. Behörden oder Unternehmen können Transparenz schaffen, Aufsicht und Kontrolle ermöglichen sowie Verantwortlichkeiten zuweisen. Damit tun sie wesentliche Schritte, um sicherzustellen, dass ethische Prinzipien der Autonomie und Gerechtigkeit gewahrt und Grundrechte geschützt werden. Letztlich sorgen sie so dafür, dass ein System allen Beteiligten zugutekommt und ihnen nicht schadet.

Das von AlgorithmWatch entwickelte Tool zur Folgenabschätzung (Impact Assessment Tool) unterstützt dabei, der besonderen ethischen Verantwortung beim Einsatz von Algorithmen & KI gerecht zu werden. Es begleitet Organisationen dabei, entlang von zwei Checklisten folgende Fragen zu beantworten, dafür ein gemeinsames Verständnis zu entwickeln und dies transparent zu machen:

1. Triage: Welche ethischen Auswirkungen könnte das System im Kontext, in dem es eingesetzt wird, haben?

➡️ Mit dieser Triage können Anwendende ermitteln, ob für das betreffende algorithmische System überhaupt eine umfassendere Folgenabschätzung verfasst werden muss und wenn ja, welche Fragen auf Stufe 2 zu beantworten sind.

2. Transparenzbericht: In einem zweiten Schritt werden die Fragen beantwortet, die mit Hilfe der Triage-Checkliste als relevant identifiziert wurden. Dabei wird deklariert:

➡️ Die Zusammenstellung dieser Antworten ergibt einen Transparenzbericht, der Ziele und Prozesse explizit macht, ein gemeinsames Verständnis schafft, Kontrolle ermöglicht und Verantwortlichkeiten zuweist.

3. Transparenz – als Chance, nicht als Bedrohung: Als dritten Schritt empfehlen wir, den resultierenden Transparenzbericht intern und wenn möglich auch extern transparent zu machen. Damit wird interne und externe Aufsicht ermöglicht, Rechenschaftspflichten sichergestellt und der verantwortungsvolle Umgang mit Algorithmen und KI unterstrichen.

➡️ Zum Impact Assessment Tool

AlgorithmWatch stellt das Impact Assessment Tool unter obigem Link zur freien Nutzung zur Verfügung. Wenn Sie sich dabei begleiten lassen möchten oder Fragen haben, melden Sie sich bei uns! Andernfalls freuen wir uns auch über Unterstützung in Form von Spenden.

Im Rahmen eines gemeinsamen Projektes haben wir die Folgenabschätzungsmethode von AlgorithmWatch mit einer Panel Assessment Methode von Intersections kombiniert. Das Panel Assessment ermöglicht es, relevante Stakeholder zu identifizieren und einzubeziehen, um deren Bedürfnisse zu berücksichtigen. Dazu gehören sowohl Menschen, die von den Ergebnissen des Systems betroffen sind als auch etwa Mitarbeitende, die das System nutzen. Aus diesem Projekt ist HUMAN entstanden – ein umfassender Ansatz, der es ermöglicht, ausgehend von einem konkreten Anwendungsfall eine verantwortungsvolle KI-Strategie zu entwickeln oder eine solche Strategie anhand einer spezifischen Anwendung zu testen.

Als Bestandteile von HUMAN stehen das Impact Assessment und das Panel Assessment zur freien Nutzung zur Verfügung. Wer sich dabei von Expert*innen begleiten lassen möchte, meldet sich bei Intersections und AlgorithmWatch CH. 

➡️ Mehr zum Projekt HUMAN

Eine Folgenabschätzung ist ein wichtiger Schritt auf dem Weg zu einem verantwortungsvollen Einsatz von Algorithmen & KI. Gleichzeitig braucht es weitere Puzzleteile:

Hier finden sich unsere umfassenden Empfehlungen für einen Einsatz von Algorithmen & KI, der Mensch und Gesellschaft tatsächlich zugutekommt: