«Bibliothek»

Geschlechtsbasierte Diskriminierung durch Algorithmen & KI

Künstliche Intelligenz und Algorithmen sind omnipräsent. Sei es beim Bewerben für den Job, bei dem Scrollen durch den Newsfeed oder bei der Gewaltprävention. Wir begegnen ihnen ständig – teilweise auch unbewusst. Während sie unseren Alltag einerseits erleichtern können, kann der Einsatz von Algorithmen aber auch Menschen diskriminieren, etwa aufgrund ihres Geschlechts.

Reihaneh Golpayegani / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/

Daten prägen heutzutage nahezu jeden Lebensbereich. Und ohne Daten gibt es keine Künstliche Intelligenz. Denn KI «lernt» durch die Daten, mit denen wir sie füttern. Diese Daten stammen immer aus der Vergangenheit und bilden so auch die gesellschaftlichen Muster der Vergangenheit ab. Sind die Daten mangelhaft oder erhalten stereotype Vorurteile, werden diese von dem jeweiligen KI-System übernommen – und so auch in die Zukunft übertragen. Das kann dazu führen, dass Menschen diskriminiert werden. Diese algorithmische Diskriminierung kann beispielsweise auf dem Geschlecht basieren. Denn viele Daten werden vorwiegend aus einer männlichen Perspektive gesammelt oder bilden die männliche Sichtweise ab, wodurch die Lebensrealität von Frauen häufig nicht ausreichend berücksichtigt wird.

Um algorithmischer Diskriminierung entgegenzuwirken, braucht es politische Massnahmen. Unter anderem müssen das Antidiskriminierungsrecht ausgeweitet und mehr Transparenz sowie Folgenabschätzungen beim Einsatz von algorithmischen Systemen sichergestellt werden. Zuallererst aber ist es wichtig, dass wir das Bewusstsein in der Bevölkerung stärken. Einige unserer Beiträge zu algorithmischer Diskriminierung aus Medien, Politik und Gesellschaft haben wir euch deshalb hier zum Nachlesen zusammengestellt:

Wie Frauen von algorithmischen Systemen diskriminiert werden

In Magazin «Frauenfragen» der Eidgenössischen Kommission für Frauenfragen EKF spricht Angela Müller, AlgorithmWatch CH Geschäftsleiterin, unter anderem darüber, wo und wie Frauen von algorithmischen Systemen diskriminiert werden können.
➡️ Interview mit Angela Müller im Magazin der Eidgenössischen Kommission für Frauenfragen, Seite 26-29 (Nov. 2024)

Beim BiblioTalk der Stadt Zürich hat Angela Müller darüber gesprochen, wie Algorithmen und KI Geschlechterstereotype und Ungleichheiten reproduzieren können.
➡️ BiblioTalk der Stadt Zürich mit Angela Müller (Nov. 2024)

Zum internationalen Frauentag haben wir gemeinsam mit alliance F und humanrights.ch Fallbeispiele von geschlechtsspezifischer Diskriminierung im Zusammenhang mit dem Einsatz von Algorithmen und KI beleuchtet.
➡️ Fallbeispiele wie Algorithmen Frauen diskriminieren (März 2024)

Mit Le Temps hat Estelle Pannatier, Policy Managerin bei AlgorithmWatch CH, über algorithmische Diskriminierung gesprochen und erläutert, dass es bei der Entwicklung und Nutzung von KI-Systemen an Transparenz mangelt, um dieser entgegenzuwirken.
➡️ Interview mit Estelle Pannatier bei Le Temps (März 2024)

Bundesgericht zu algorithmischer Diskriminierung

Das Bundesgericht hat in einem Urteil zu neuen Bestimmungen im Luzerner Polizeigesetz auf die intransparente Entscheidungsfindung algorithmischer Systeme und deren Diskriminierungspotenzial hingewiesen. In seinem Urteil verweist das Gericht unter anderem auf ein von AlgorithmWatch CH erarbeitetes Positionspapier hinsichtlich des Schutzes vor algorithmischer Diskriminierung.
➡️ Bundesgericht verweist auf AlgorithmWatch CH Positionspapier zu algorithmischer Diskriminierung, vgl. 4.5.3. (Oktober 2024)

Algorithmische Diskriminierung in der Arbeitswelt

Im Magazin des Personalverband des Bundes (PVB) erläutert Estelle Pannatier, was intersektionale Diskriminierung bedeutet und welchen Einfluss die Künstliche Intelligenz auf Ungleichheiten zwischen Frauen und Männern hat.
➡️ Interview mit Estelle Pannatier im Magazin des Personalverband des Bundes (Dez. 2024)

Im Rahmen des Horizon Europe-Projekt FINDHR forscht Moira Daviet, Researcherin bei AlgorithmWatch CH, wie der algorithmischen Diskriminierung in der Arbeitswelt entgegengewirkt werden kann.
➡️ Interview mit Moira Daviet zum Forschungsprojekt «FINDHR» (April 2025)

Generative KI-Modelle reproduzieren Stereotypen

Bildgeneratoren wie MidJourney, Kandinsky und Adobe Firefly reproduzieren Stereotypen. Beispielsweise sind für den Bildgenerator MidJourney Präsidentschaftskandidaten ausnahmslos männlich, weiss und US-Amerikaner.
➡️ Experiment: Wie KI-Bildgeneratoren die Welt zeigen (März 2024)

Appell an den Bundesrat

In unserem Appell an den Bundesrat haben wir mit Unternehmerin Patrizia Laeri in einem kurzen Video darauf aufmerksam gemacht, dass Künstliche Intelligenz Menschen aufgrund ihrer Geschlechtsidentität diskriminieren kann.
➡️ Video mit Unternehmerin Patrizia Laeri (Juli 2024)