#discrimination (9 Ergebnisse)

Serie mit Fallbeispielen

Diskriminierung 2.0: Wie Algorithmen Menschen diskriminieren

Anhand von konkreten Fallbeispielen beleuchten wir unterschiedlichste Fälle von algorithmischer Diskriminierung.

Diskriminierung 2.0

Wie Algorithmen Frauen diskriminieren

Bei der Erstellung von Bildern durch KI, der Verbreitung von Stellenangeboten auf Social Media oder dem Zugang zu sozialen Leistungen können Frauen von Algorithmen benachteiligt werden. Zum internationalen Frauentag beleuchten AlgorithmWatch CH, humanrights.ch und alliance F die geschlechtsspezifischen Diskriminierungen im Zusammenhang mit dem Einsatz von Algorithmen.

Experiment

Wie KI-Bildgeneratoren die Welt zeigen: Stereotypen statt Vielfalt

Studien dazu befassen sich meistens nur mit MidJourney. Bei anderen Tools ist die ernste Absicht zu erkennen, eine grössere Vielfalt im Output darzustellen, wenn auch mit durchwachsenem Erfolg.

Kurz erklärt

Wie Algorithmen diskriminieren – und was wir dagegen tun sollten

Algorithmische und KI-basierte Systeme werden sowohl von Behörden als auch von Unternehmen immer häufiger eingesetzt – unter anderem, um Prognosen zu erstellen, Empfehlungen zu geben oder Entscheide zu fällen. Ihr Einsatz kann allerdings zu Diskriminierungen führen. Das heutige Diskriminierungsverbot in der Schweiz reicht nicht aus und muss verbessert werden, um vor algorithmischen Diskriminierungen zu schützen. Dieses Anliegen findet nun auch in der Politik Gehör.

Bild mit einem Laptop, auf dem Lebensläufe und Bilder von People of colour und weißen Menschen zu sehen sind.

Medienmitteilung

Spiegel der Gesellschaft: Diskriminierung im Recruiting durch KI verstärkt

Das Horizon Europe-Projekt FINDHR beschäftigt sich mit Diskriminierung in der Personalauswahl durch algorithmische Systeme. AlgorithmWatch CH führt das Projekt gemeinsam mit Partnerinstitutionen aus ganz Europa durch. Wir rufen zum Spenden von echten Lebensläufen auf, um mithilfe dieser Daten, Werkzeuge gegen Diskriminierung zu entwickeln.

Medienmitteilung

Künstliche Intelligenz: In der Schweiz diskriminieren Algorithmen ungestraft

In ihrem neuen Positionspapier kritisiert die Menschenrechtsorganisation AlgorithmWatch CH das veraltete Schweizer Antidiskriminierungsrecht, das deutliche Lücken beim Schutz vor Diskriminierung durch Algorithmen aufweist. Das Papier zeigt umfassend auf, wie Künstliche Intelligenz und weitere algorithmische Systeme zu neuartigen Formen von Diskriminierungen führen können. AlgorithmWatch CH fordert daher eine Ausweitung des Antidiskriminierungsrechts, unter anderem durch ein allgemeines Diskriminierungsverbot für Private sowie kollektive Rechtsmittel.

Positionspapier

Diskriminierende Algorithmen: So gelingt der Schutz

Wenn Algorithmen Prognosen erstellen, Empfehlungen geben oder Entscheidungen fällen, besteht immer das Risiko, dass sie dabei Menschen diskriminieren. Doch wie diskriminieren Algorithmen genau? Und was sollte die Politik dagegen tun? Wir beleuchten den Handlungsbedarf und zeigen Lösungen für einen besseren Schutz vor algorithmischer Diskriminierung.

Projekt «FINDHR»

Diskriminierung durch Algorithmen bei der Personalauswahl vermeiden

AlgorithmWatch CH ist Teil des Horizon Europe-Projekts «FINDHR». Bei dem interdisziplinären Forschungsprojekt geht es darum, den diskriminierenden Auswirkungen von Software im Bereich der Personalauswahl (Recruiting) zu begegnen und Methoden, Tools und Trainings zu entwickeln, um diese zu vermeiden.

Algorithmen als Spiegel der Gesellschaft

Wie Machtstrukturen und Ungerechtigkeiten Eingang in automatisierte Entscheidungsprozesse finden: Ein Überblick und Lösungsansätze.

Seite 2 von 2