HUMAN

Menschen müssen dafür sorgen, dass KI den Menschen dient

Wenn die Polizei versucht, mittels Algorithmen die Rückfallwahrscheinlichkeit von Straftäter*innen zu berechnen, wenn Arbeitgeber mit KI Bewerbungen vorsortieren oder wenn der KI-Chatbot Medienartikel erstellt: wer ist dann betroffen von diesen algorithmisch generierten Inhalten, Empfehlungen und Entscheidungen? Wie können Betroffene einbezogen werden, um ihre Rechte und Interessen zu sichern?

Foto: Amanda Dalbjörn / Unsplash
Angela Müller
Dr. Angela Müller
Geschäftsleiterin AlgorithmWatch CH | Head of Policy & Advocacy

Die beiden zivilgesellschaftlichen Organisationen Intersections und AlgorithmWatch CH entwickeln beim Projekt «HUMAN» gemeinsam einen Werkzeugkasten, um ethische Folgenabschätzungen zu Algorithmen und KI an den Perspektiven von Betroffenen auszurichten. Es reicht nicht, diese Systeme einfach auf einer technischen Ebene zu testen. Mit HUMAN verfolgen wir das Ziel, mit praktisch anwendbaren Methoden sicherzustellen, dass der Einsatz automatisierter Systeme im Sinne der betroffenen Menschen erfolgt. 

Der erste Schritt besteht darin, das von AlgorithmWatch entwickelte Impact-Assessment-Tool für automatisierte Entscheidungssysteme zu überarbeiten. Nicht nur werden neueste Entwicklungen und die aktuelle Forschung darin einfliessen, das Tool soll digital verfügbar und einfacher in der Praxis anwendbar werden. Intersections kreiert Panels und innovative Räume, um diverse Perspektiven einzubeziehen. 

In einem zweiten Schritt testen zwei Praxispartnerinnen aus der öffentlichen Verwaltung und ein Medienhaus das überarbeitete Tool in zwei realen Anwendungen. Die Erfahrungen dieser Testanwendungen fliessen laufend in die Weiterentwicklung des Tools ein, um es so niederschwellig, praxisnah und hilfreich wie möglich zu gestalten. 

Mit HUMAN machen wir auf die ethischen Pflichten der Menschen und Institutionen aufmerksam, die Algorithmen und KI einsetzen. Diese Menschen und Institutionen tragen – neben der Politik, die die Rahmenbedingungen vorgeben sollte – die Verantwortung dafür, dass ihre Systeme im Einklang mit grundlegenden Menschenrechten und unseren kollektiven Interessen angewendet werden. Deshalb müssen sie die verschiedenen Systemauswirkungen abschätzen, um Risiken zu erkennen und Massnahmen dagegen zu ergreifen. 

Das Intersections-Projekt startete im Januar 2024 und wird bis Juni 2025 fortgeführt. Ein Advisory Lab steht ihm beratend zur Seite. 

«HUMAN» wird unterstützt von der Stiftung Mercator Schweiz

Projektpartnerin:

AlgorithmNews CH - abonniere jetzt unseren Newsletter!