Projekte

HUMAN

Menschen müssen dafür sorgen, dass KI den Menschen dient

Wenn die Polizei versucht, mittels Algorithmen die Rückfallwahrscheinlichkeit von Straftäter*innen zu berechnen, wenn Arbeitgeber mit KI Bewerbungen vorsortieren oder wenn der KI-Chatbot Medienartikel erstellt: wer ist dann betroffen von diesen algorithmisch generierten Inhalten, Empfehlungen und Entscheidungen? Wie können Betroffene einbezogen werden, um ihre Rechte und Interessen zu sichern?

Wahlen 2023

Wie ChatGPT, Bing Chat und Co. die öffentliche Meinungsbildung gefährden könnten

Sich mithilfe grosser KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung, die AlgorithmWatch und AI Forensics in Zusammenarbeit mit SRF und RTS zu den nationalen Wahlen in der Schweiz und zu den Landtagswahlen in Bayern und Hessen durchgeführt haben. Die Antworten, die grosse Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend, unvollständig oder veraltet. Bing Chat, ChatGPT und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

Atlas der Automatisierung

Um Sozialleistungsbetrug aufzudecken, Arbeitsleistung zu messen, die Kreditwürdigkeit einer Person vorherzusagen oder um uns online personalisierte Inhalte anzuzeigen – Algorithmen und sogenannte «Künstliche Intelligenz» prägen heute unseren Alltag. Wo, von wem und wozu diese algorithmischen Systeme eingesetzt werden, ist jedoch weitgehend eine Black Box. Mit dem Atlas der Automatisierung bringt AlgorithmWatch CH nun Licht ins Dunkel.

FINDHR

Algorithmenbasierte Diskriminierung in Job-Auswahlverfahren vermeiden

AlgorithmWatch CH ist Teil des Horizon Europe-Projekts «FINDHR». Bei dem interdisziplinären Forschungsprojekt geht es darum, den diskriminierenden Auswirkungen von Software im Bereich der Personalauswahl (Recruiting) zu begegnen und Methoden, Tools und Trainings zu entwickeln, um diese zu vermeiden.

Analytics for the People?

Was Algorithmen am Arbeitsplatz für Rechte und Mitwirkung bedeuten

AlgorithmWatch CH untersuchte in einem gemeinsamen Projekt mit der Gewerkschaft syndicom, wie die Arbeitnehmenden beim Einsatz von algorithmischen Systemen am Arbeitsplatz befähigt werden können.

Algorithmen im Museum: Ausstellung «Planet Digital»

Vom 11. Februar bis am 6. Juni 2022 findet im Museum für Gestaltung in Zürich die Ausstellung «Planet Digital» statt. AlgorithmWatch Schweiz hatte die Gelegenheit, gemeinsam mit der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) ein Exponat zu (un)fairen Algorithmen zu gestalten.

Algorithmen im Schweizerischen politischen Diskurs

Dieses Projekt wird im Rahmen eines Capstone Courses des Instituts für Politikwissenschaft der Universität Zürich durchgeführt. Das Ziel ist eine Auswertung des schweizerischen Diskurses über die Verwendung von Algorithmen. Welche Akteure prägen die öffentliche Debatte und aus welchen Perspektiven werden Algorithmen politisch problematisiert?

ADM-Systeme in der öffentlichen Verwaltung

Automating Society