AlgorithmWatch ist eine Menschenrechtsorganisation mit Sitz in Zürich und Berlin. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen.

Position

18. November 2023

#work

Positionspapier

Algorithmen am Arbeitsplatz: Mitarbeitende jetzt einbeziehen

Vermehrt setzen Arbeitgeber algorithmische Systeme am Arbeitsplatz ein. Die Mitarbeitenden können jedoch selten mitbestimmen, wenn es darum geht, wo und wie diese Systeme eingesetzt werden. Der gesetzliche Rahmen reicht aktuell nicht aus, um die Beteiligung der Mitarbeitenden bei der Digitalisierung am Arbeitsplatz sicherzustellen. Wir zeigen auf Basis eines neuen Rechtsgutachtens auf, welche politischen Massnahmen es braucht, um die Rechte der Mitarbeitenden zu stärken.

Positionspapier

Diskriminierende Algorithmen: So gelingt der Schutz

Wenn Algorithmen Prognosen erstellen, Empfehlungen geben oder Entscheidungen fällen, besteht immer das Risiko, dass sie dabei Menschen diskriminieren. Doch wie diskriminieren Algorithmen genau? Und was sollte die Politik dagegen tun? Wir beleuchten den Handlungsbedarf und zeigen Lösungen für einen besseren Schutz vor algorithmischer Diskriminierung.

Foto: Ricardo Resende | Unsplash

Blog

31. August 2023 (Update: 25. Oktober 2023)

#Oeffentlicheverwaltung #publicsector

Aufgedeckt

Algorithmischer Flickenteppich in Schweizer Verwaltungen

Welche algorithmischen Systeme nutzen die Kantone, um Entscheidungen über Menschen zu beeinflussen? Diese Frage haben wir den 26 kantonalen Staatskanzleien gestellt und deren Antworten ausgewertet. Spoiler: Viele Kantone sind nicht in der Lage, vollständige Informationen über die von ihnen genutzten Systeme zur Verfügung zu stellen.

Neue Recherche

Wahlen 2023: Wie ChatGPT, Bing Chat und Co. die öffentliche Meinungsbildung gefährden könnten

Sich mithilfe grosser KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung, die AlgorithmWatch und AI Forensics in Zusammenarbeit mit SRF und RTS zu den nationalen Wahlen in der Schweiz und zu den Landtagswahlen in Bayern und Hessen durchgeführt haben. Die Antworten, die grosse Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend, unvollständig oder veraltet. Bing Chat, ChatGPT und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

Khari Slaughter

Medienmitteilung

smartvote-Umfrage: Grosse Mehrheit für ein Verbot der Gesichtserkennung

Rund 80 Prozent der Personen, die für die eidgenössischen Wahlen kandidieren, sind für ein Verbot der automatischen Gesichtserkennung im öffentlichen Raum. Die Mehrheit in allen Parteien ausser der SVP lehnt diese Form der Massenüberwachung ab. Das Bündnis «Grundrechte schützen – Gesichtserkennung stoppen» begrüsst das eindeutige Resultat der smartvote-Umfrage.

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu den Stories.

Foto: Shahadat Rahman | Unsplash

14. Juli 2023

Neue Recherche

FOTRES: Simple Mathematik mit komplizierten Folgen

Ein einfacher Algorithmus zur Ermittlung der Rückfallwahrscheinlichkeit von Straftäter*innen mutiert zu einem eigenen Diagnosesystem. Die Fachwelt hält seinen Einsatz für ethisch fragwürdig.

Weiterlesen

Projekte

Mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen! Zu unseren Projekten.

Grafik: Beate Autering

12. Juni 2023

Atlas der Automatisierung

Um Sozialleistungsbetrug aufzudecken, Arbeitsleistung zu messen, die Kreditwürdigkeit einer Person vorherzusagen oder um uns online personalisierte Inhalte anzuzeigen – Algorithmen und sogenannte «Künstliche Intelligenz» prägen heute unseren Alltag. Wo, von wem und wozu diese algorithmischen Systeme eingesetzt werden, ist jedoch weitgehend eine Black Box. Mit dem Atlas der Automatisierung bringt AlgorithmWatch CH nun Licht ins Dunkel.

Weiterlesen

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere – unterstützt durch ein Netzwerk von Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen.

Foto von Elena Mozhvilo auf Unsplash

18. November 2023

Rechtsgutachten

Wie Arbeitnehmende den Einsatz von Algorithmen an ihrem Arbeitsplatz beeinflussen können – eine rechtliche Perspektive

Vermehrt kommen an Arbeitsplätzen in der Schweiz algorithmische Systeme zum Einsatz. Unternehmen müssten gemäss geltendem Recht ihre Angestellten in gewissen Situationen einbeziehen. Dies passiert jedoch oft nicht. Das vorliegende Rechtsgutachten zeigt auf, welche Rechte die Arbeitnehmenden und welche Pflichten die Arbeitgeber haben, wenn es um die Beteiligung der Mitarbeitenden geht, welche Lücken es im rechtlichen Rahmen gibt und wie diese geschlossen werden könnten.

Weiterlesen

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Zu unsere Positionen.

Alin Andersen | Unsplash

29. September 2023

Stellungnahme zur Vernehmlassung

Berner Datenschutzgesetz: Mehr Transparenz, weniger Überwachung

Die Totalrevision des Berner Datenschutzgesetzes sollte dazu genutzt werden, um Rahmenbedingungen für den Einsatz algorithmischer Systeme zu setzen, die Menschenrechte und Rechtsstaat stärken.

Weiterlesen

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch CH.

© SRF

31. Oktober 2023

Angela Müller bei SRF Focus

«Es geht um Gerechtigkeit»

Unsere Leiterin Angela Müller sprach bei der Radiosendung «SRF Focus» über unsere Arbeit bei AlgorithmWatch CH.

Weiterlesen