Publikationen

Serie mit Fallbeispielen

Diskriminierung 2.0: Wie Algorithmen Menschen diskriminieren

Anhand von konkreten Fallbeispielen beleuchten wir unterschiedlichste Fälle von algorithmischer Diskriminierung.

Qualifizierungsmassnahmen

Was Gewerkschaften über Algorithmen am Arbeitsplatz wissen müssen

Unternehmen in der Schweiz setzen vermehrt algorithmische Systeme am Arbeitsplatz ein. Die Mitwirkung der Arbeitnehmenden ist ein wichtiger Faktor, damit sich dieser technologische Wandel positiv auf die Arbeitnehmenden auswirken kann. Die vorliegende Publikation fasst zusammen, was Gewerkschaften über algorithmische Systeme am Arbeitsplatz wissen müssen und wie sie die Mitwirkung der Arbeitnehmenden ermöglichen können.

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu den Wahlen in der Schweiz, Bayern und Hessen im Oktober 2023 untersucht.

Rechtsgutachten

Wie Arbeitnehmende den Einsatz von Algorithmen an ihrem Arbeitsplatz beeinflussen können – eine rechtliche Perspektive

Vermehrt kommen an Arbeitsplätzen in der Schweiz algorithmische Systeme zum Einsatz. Unternehmen müssten gemäss geltendem Recht ihre Angestellten in gewissen Situationen einbeziehen. Dies passiert jedoch oft nicht. Das vorliegende Rechtsgutachten zeigt auf, welche Rechte die Arbeitnehmenden und welche Pflichten die Arbeitgeber haben, wenn es um die Beteiligung der Mitarbeitenden geht, welche Lücken es im rechtlichen Rahmen gibt und wie diese geschlossen werden könnten.

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Grosse KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in der Schweiz, Bayern und Hessen? Unsere Forschung belegt: Das dahinter stehende grosse Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Basisanalyse

Algorithmische Systeme am Arbeitsplatz – ein Überblick

Algorithmische Systeme am Arbeitsplatz können massive Auswirkungen auf Mitarbeitende haben, die deshalb über den Einsatz der Systeme mitbestimmen sollten, um ihre grundlegenden Rechte zu wahren. Unser Kurzbericht zeigt, wie Arbeitgeber in der Schweiz mit ihrer Verantwortung umgehen.

Wie nachhaltig sind KI-Systeme?

In der zweiten Ausgabe des SustAIn-Magazins zeigen wir, wann KI nicht nachhaltig ist und wie bessere Lösungen aussehen könnten.

Drei spannende Veröffentlichungen zu aktuellen Themen

In den letzten Wochen hat sich einiges getan. Unsere Kolleg*innen von AlgorithmWatch.org haben gleich drei interessante Publikationen veröffentlicht, die auch für uns höchst relevant sind. Es geht nämlich um nachhaltige KI, um diskriminierende Algorithmen und um die Macht grosser Online-Plattformen.

Algorithmen im schweizerischen öffentlichen Diskurs

AlgorithmWatch Schweiz hat eine Studie über die öffentliche Wahrnehmung von ADM-Systemen in Auftrag gegeben. Die Studie entstand im Rahmen eines Capstone-Kurses des Instituts für Politikwissenschaft an der Universität Zürch.

Algorithm TV

Erhalte ich einen Kredit? Wie hoch ist meine Versicherungsprämie? Habe ich Anspruch auf Sozialhilfe? Viele wichtige Entscheidungen werden heute auf der Grundlage unserer Daten mithilfe von Algorithmen entschieden. Diese Systeme sind oft hocheffizient – doch sind sie eigentlich fair? Vier Filme erzählen von (un)fairen Algorithmen und regen zum Nachdenken an.

Ein risikobasierter Ansatz zur Regulierung von Künstlicher Intelligenz – mit Auswirkungen auf die Schweiz

In ihrem Beitrag in der Zeitschrift für Europarecht erläutert Angela Müller den KI-Verordnungsentwurf („AI Act“) der EU-Kommission und beleuchtet diesen kritisch. Darauf basierend legt sie dar, inwiefern die Verordnung für die Schweiz relevant würde und – darüber hinaus – welche Fragen sich für die Schweiz beim Umgang mit KI-Systemen stellen.

Automatisierte Entscheidungssysteme im öffentlichen Sektor – Ein Impact-Assessment-Tool für die öffentliche Verwaltung

Wie können wir gewährleisten, dass die öffentliche Verwaltung automatisierte Entscheidungssysteme vertrauenswürdig einsetzt? AlgorithmWatch und AlgorithmWatch Schweiz haben ein Instrument zur Folgenabschätzung (Impact Assessment Tool) erarbeitet, das Behörden verschiedener Verwaltungsebenen für die Analyse spezifischer Systeme verwenden können. Das Dokument ist jetzt auch auf Deutsch verfügbar.

Einsatz Künstlicher Intelligenz in der Verwaltung: ethische und rechtliche Fragen

Eine Studie im Auftrag des Kantons Zürich, durchgeführt von Prof. Dr. Nadja Braun Binder, Juristische Fakultät der Universität Basel, und ihrem Team in Zusammenarbeit mit AlgorithmWatch Schweiz.

Jetzt lesen: Schweizer Länderausgabe des Automating Society Reports 2020