Projekt «FINDHR»

Diskriminierung durch Algorithmen bei der Personalauswahl vermeiden

AlgorithmWatch CH ist Teil des Horizon Europe-Projekts «FINDHR». Bei dem interdisziplinären Forschungsprojekt geht es darum, den diskriminierenden Auswirkungen von Software im Bereich der Personalauswahl (Recruiting) zu begegnen und Methoden, Tools und Trainings zu entwickeln, um diese zu vermeiden.

Projekt

16. November 2022 (Update: 16. Januar 2025)

Read in EnglishLire en Français

#discrimination #work

Projektmanagerin

Moira Daviet
Researcherin

Laufendes Projekt
Projektlaufzeit: November 2022 bis Oktober 2025

Wie lassen sich aus einem grossen Bewerbungspool die am besten geeigneten Kandidat*innen finden? Bewerbungs- und Einstellungsprozesse sind eine Herausforderung und mit viel Aufwand verbunden. Da liegt der Wunsch nahe, bei diesen Prozessen einen Teil der Arbeit algorithmischen Entscheidungssystemen zu überlassen. Mit solchen algorithmischen Systemen können beispielsweise Bewerbungen mittels der Lebensläufe vorsortiert oder Rangfolgen von Bewerbenden mithilfe von Online-Tests erstellt werden. Ihr Einsatz verspricht, Zeit zu sparen und die Effektivität zu steigern, und trotzdem die besten Bewerbenden zu finden. Die bisherigen Erfahrungen haben aber gezeigt, dass bei ihrer Anwendung Diskriminierungsmuster reproduziert und diskriminierende Hürden auf dem Arbeitsmarkt sogar noch vergrössert werden können.

Eines der bekanntesten Beispiele dafür ist eine Bewerbungssoftware, die Amazon entwickelt haben soll. Sie sollte Einstellungsprozesse effizienter machen. Noch in der Testphase der Software stellte sich aber Berichten zufolge heraus, dass der Empfehlungsalgorithmus der Software Frauen diskriminierte, indem ihre Lebensläufe aussortiert wurden. Amazon beendete das Projekt nach eigener Aussage, bevor die Software zum Einsatz kam, da Versuche, die Benachteiligung von Frauen abzustellen, keinen Erfolg hatten.

Erkenntnisziel

Was muss bei der Entwicklung und beim Einsatz von Personalauswahl-Software beachtet werden, damit Diskriminierung von Beginn an ausgeschlossen ist? In dem Projekt «FINDHR Fairness and Intersectional Non-Discrimination in Human Recommendation» sollen Antworten auf diese Frage erarbeitet werden. Das EU-geförderte Projekt hat zum Ziel, mit einem kontextsensitiven Ansatz faire Algorithmen für die Personalauswahl zu entwickeln. Es werden dabei nicht nur die technischen Aspekte von Algorithmen berücksichtigt, sondern beispielsweise auch der Kontext der Entstehung oder die sozialen Folgen, die sich aus ihrem Einsatz ergeben. Das interdisziplinäre und internationale Forschungskonsortium, zu dem AlgorithmWatch CH gehört, arbeitet seit November 2022 an:

Rechtliche und ethische Perspektive

Die Entwicklung diskriminierungssensibler KI-Anwendungen erfordert die Verarbeitung sensibler Daten. Deshalb beinhaltet das Projekt eine rechtliche Analyse, in der die Spannungen zwischen den Datenschutzvorschriften und den Antidiskriminierungsvorschriften in Europa erörtert werden. In dem Projekt werden potenziell von Diskriminierung betroffene Gruppen einbezogen.

AlgorithmWatch CH konzentriert sich gemeinsam mit anderen Projektpartner*innen auf die Entwicklung von Werkzeugen, die sicherstellen, dass der Einsatz von Algorithmen in Personalauswahlverfahren auf ethischen Grundsätzen beruht und keine diskriminierenden Vorurteile reproduziert. Zudem trägt AlgorithmWatch CH mit seiner evidenzbasierten Advocacy-Arbeit dazu bei, die Ergebnisse des Projekts aufzubereiten und verschiedenen Zielgruppen zu vermitteln.

Projektupdates

Alle Ergebnisse werden als Open-Access-Publikationen, Open-Source-Software, offene Datensätze und offene Kursunterlagen veröffentlicht. Wir berichten regelmässig auf unseren Social Media-Kanälen, auf der FINDHR-Webseite und hier auf unserer AlgorithmWatch CH Webseite dazu.

Gib uns Feedback zu unserer laufenden Forschung

Wir möchten von dir hören! Wir arbeiten an Tools, die Diskriminierung durch KI bei der Personalauswahl verhindern. Gemeinsam mit unseren Partnern haben wir uns auf drei Forschungsthemen konzentriert: Softwareentwicklung, Folgenabschätzung und Kontrollmechanismen. Unsere Frage an dich: Was hältst du von unseren Vorschlägen? Fehlt etwas? Was können wir verbessern?

Hast du Interesse, uns Feedback zu geben? Melde dich jetzt bei Moira Daviet, Projektverantwortliche FindHR: daviet@algorithmwatch.ch!


Kurs: Diskriminierungen bei algorithmischer Personalauswahl verhindern

Wir haben ein «Anti-discrimination training for algorithmic hiring» entwickelt, das sich unter anderem an HR-Verantwortliche, Personalvermittler*innen und andere Fachpersonen richtet, die lernen möchten, wie es zu algorithmischer Diskriminierung in Einstellungsverfahren kommt und was sie tun können, um diese zu vermeiden.

Wir haben zwei Arten von Trainings entwickelt, die wir beide kostenlos anbieten:

  • eine 3-stündige Masterclass: nächste Termine 21. Februar 2025 (Anmeldefrist: 26. Januar 2025) und 27. Juni 2025 (Anmeldefrist: 30. Mai 2025). Bewirb dich hier für die Teilnahme.
  • einen 30-stündigen Kurs zu Antidiskriminierung beim Einsatz von KI bei der Personalauswahl

Erfahre mehr dazu und schau dir hier das Kursmaterial an.


Expert Reports

Im Jahr 2023 haben wir renommierte Expert*innen beauftragt, Diskriminierungen im Bereich der algorithmischen Job-Einstellungsverfahren von marginalisierten Gruppen zu erforschen:

  • «The Case for Latin American Migrants Seeking Emplyoment Opportunities in Spain» von César Rosales, Nataly Buslón, Fabio Curi and Raquel Jorge (2023)
  • «Tracing Bias Transfer Between Employment Discrimination and Algorithmic Hiring with Migrant Tech Workers in Berlin» von Lin, Jie Liang (2023).
  • «Ensuring Human Intelligence in AI Hiring Tools» von Paksy Plackis-Cheng, Tejo Chalasani, Sabrina Palme, et al. (2023)

Hier die Expert Reports lesen.


Datenspenden-Kampagne

Im Rahmen von FINDHR entwickeln wir Werkzeuge, mit denen wir Ungerechtigkeit in Bewerbungsverfahren entdecken und vermeiden können. Um das zu schaffen, benötigen wir reale Lebensläufe, mit denen wir testen, wie sich solche Ungerechtigkeiten in Empfehlungsalgorithmen einschleichen. Basierend auf diesen realen Lebensläufen erstellen wir mit einer Software künstliche Lebensläufe und entwickeln daraus Methoden gegen Diskriminierung.

Zwischen Juni 2023 und Mai 2024 haben wir hierfür eine Datenspenden-Kampagne lanciert. 1100 Menschen haben uns ihren anonymisierten CV gespendet – vielen herzlichen Dank!

Diese Partner sind am Projekt «FINDHR» beteiligt:

This article is part of a project that has received funding from the European Union's Horizon Europe research and innovation program under grant agreement No 101070212. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union. Neither the European Union nor the granting authority can be held responsible for them.

This work is supported by the Swiss State Secretariat for Education, Research and Innovation (SERI) under contract number 22.00151.

AlgorithmNews CH - abonniere jetzt unseren Newsletter!