
Medienmitteilung
Diskriminierende KI bei Job-Bewerbungen: Forschungsprojekt zeigt neue Lösungen
Ein grosses europäisches Forschungsprojekt veröffentlicht neue Tools, Trainings und Empfehlungen, um Diskriminierung durch KI-Systeme in der Personalauswahl zu reduzieren.

Bei der Personalauswahl nutzen immer mehr Unternehmen KI-gestützte Bewerbungssysteme. Solche Systeme können zwar Zeit sparen, bergen aber auch das Risiko der Diskriminierung. Im Rahmen des Horizon-Europe-Projekts «FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation» hat AlgorithmWatch CH gemeinsam mit einem europäischen, interdisziplinären Konsortium aus Wissenschaft, Industrie und Zivilgesellschaft rund drei Jahre lang an Lösungsansätzen gearbeitet, um dieser Art von Diskriminierung entgegenzuwirken.
«Der Einsatz KI-gestützter Software in der Personalauswahl erfordert ein besonderes Verantwortungsbewusstsein sowohl in der Softwareentwicklung, in Personalabteilungen als auch in der Politik. Denn die potenzielle Diskriminierung durch solche Systeme ist systematisch und skalierbar.»
Moira Daviet, Researcherin bei AlgorithmWatch CH
Die entwickelten Guidelines, Tools und Trainings stehen allen Interessierten frei zur Verfügung:
Nachweisliche Risiken beim Einsatz von KI im Recruiting
Der Einsatz von KI-basierten Recruiting-Systemen verspricht Personalverantwortlichen Zeitersparnis. Die bisherigen Erfahrungen zeigen jedoch, dass bei ihrer Anwendung Diskriminierungsmuster reproduziert und diskriminierende Hürden vergrössert werden können; oft ohne Wissen der Bewerbenden oder derjenigen, die die Systeme einsetzen. Das FINDHR-Forschungsprogramm legt einen besonderen Fokus auf intersektionale Diskriminierung, bei der die Kombination mehrerer persönlicher Merkmale (etwa Geschlecht, Alter, Religion, Herkunft oder sexuelle Orientierung) neue Formen von Diskriminierung schafft und bestehende multipliziert.
Wie die internationale Forschungsgruppe nun aufzeigt, ist Diskriminierung in automatisierten Bewerbungsverfahren dabei keineswegs nur ein theoretisches Konstrukt, sondern für viele Menschen eine Realität. Im Rahmen des Projekts haben sich die Forschenden in sieben europäischen Ländern mit Betroffenen ausgetauscht (Albanien, Bulgarien, Deutschland, Griechenland, Italien, Niederlande, Serbien). Viele Betroffene fühlten sich ohnmächtig und waren frustriert, da sie auf ihre Bewerbungen, trotz guten Qualifikationen und zahlreicher Bewerbungsversuche, oft nur automatisierte Absagen ausserhalb der Arbeitszeiten erhielten – wohl ohne dass ihre Bewerbungsunterlagen je von einem Menschen gesichtet wurden.
Lösungen, die Diskriminierung entgegenwirken
Wie kann bei der Entwicklung und dem Einsatz von KI-Systemen zur Personalauswahl das Risiko von Diskriminierung reduziert werden?
«Ein breiter Ansatz, der sowohl Massnahmen für die Software-Entwicklung und Personalabteilungen als auch auf politischer Ebene umfasst, ist wichtig. Denn algorithmische Diskriminierung entsteht nicht ausschliesslich auf technischer Ebene und kann nicht allein dort behoben werden. Der soziale und kulturelle Kontext, in dem ein System entwickelt und eingesetzt wird, muss ebenso berücksichtigt werden.»
Moira Daviet, Researcherin bei AlgorithmWatch CH
Alle Lösungsansätze im Überblick
- FINDHR Toolkits mit konkreten Empfehlungen für Software-Entwickler*innen, HR- & Personalverantwortliche sowie für politische Entscheidungsträger*innen. Mehr dazu.
- Guidelines und Methoden für inklusives Software-Design sowie den verantwortungsbewussten Einsatz und Unterhalt von algorithmischen Systemen im Recruiting. Mehr dazu.
- Technische Tools und Software, die das Risiko von algorithmischen Diskriminierungen im Recruiting reduzieren. Mehr dazu.
- Trainings für Fachpersonen, um auf das Risiko von algorithmischen Diskriminierungen im Recruiting zu sensibilisieren. Mehr dazu.
- Erfahrungsberichte von Betroffenen und Tipps für Stellensuchende, um auf die häufig unsichtbaren Barrieren in der Stellensuche aufmerksam zu machen und die Lebensrealität von Betroffenen einzubeziehen. Mehr dazu.
Diese Partner*innen sind am Projekt «FINDHR» beteiligt:
- Universitat Pompeu Fabra
- Universiteit van Amsterdam
- Universitá di Pisa
- Max-Planck-Institut für Sicherheit und Privatsphäre
- Radboud Universiteit
- Universiteit Utrecht
- Women in Development Europe+
- Praksis Association
- Eticas Research and Consulting
- Randstadt
- Adevinta
- AlgorithmWatch CH


This article is part of a project that has received funding from the European Union's Horizon Europe research and innovation program under grant agreement No 101070212. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union. Neither the European Union nor the granting authority can be held responsible for them.
This work is supported by the Swiss State Secretariat for Education, Research and Innovation (SERI) under contract number 22.00151.
