
Projekt «FINDHR»
Just Hiring! So vermeiden wir Diskriminierung durch Algorithmen in Job-Bewerbungsverfahren
KI, die Job-Bewerbungen vorsortiert? Im Rahmen des Horizon-Europe-Projekts «FINDHR» haben wir Algorithmen, Methoden und Trainings entwickelt, um Diskriminierung zu reduzieren, wenn KI in der Personalauswahl zum Einsatz kommt. Hier sind unsere Ergebnisse.

Laufendes Projekt
Projektlaufzeit: November 2022 bis Oktober 2025
Wie lassen sich aus einem grossen Bewerbungspool die richtigen Kandidat*innen finden? Bewerbungs- und Einstellungsprozesse sind eine Herausforderung und mit viel Aufwand verbunden. Da liegt der Wunsch nahe, einen Teil der Arbeit zu automatisieren. Mit algorithmischen oder KI-basierten Systemen können beispielsweise Lebensläufe vorsortiert oder Rangfolgen von Bewerbenden erstellt werden. Solche Systeme können aber – oftmals unbemerkt – auch diskriminierende Muster reproduzieren und Kandidat*innen den Zugang zum Arbeitsmarkt zusätzlich erschweren.
Im Projekt «FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation» haben wir mit einem interdisziplinären europäischen Konsortium aus Wissenschaft, Industrie und Zivilgesellschaft gemeinsam Lösungsansätze erarbeitet, um dieser Art von Diskriminierung entgegenzuwirken.
Algorithmische Diskriminierung im Recruiting
Was bedeutet das?
Der Einsatz von KI-basierten Recruiting-Systemen verspricht Personalverantwortlichen, Zeit zu sparen und effizienter zu sein – und trotzdem die besten Bewerbenden zu finden. Die bisherigen Erfahrungen zeigen aber, dass bei ihrer Anwendung Diskriminierungsmuster reproduziert und diskriminierende Hürden auf dem Arbeitsmarkt sogar noch vergrössert werden können. Eine besondere Herausforderung ist jene der intersektionalen Diskriminierung, bei der die Kombination mehrerer persönlicher Merkmale (etwa Geschlecht, Alter, Religion, Herkunft oder sexuelle Orientierung) neue Formen von Diskriminierung schafft bzw. bestehende multipliziert.
Eines der bekanntesten Beispiele für algorithmische Diskriminierung in Bewerbungsverfahren ist ein System, das Amazon entwickelt haben soll. Noch in der Testphase stellte sich Berichten zufolge heraus, dass sein Empfehlungsalgorithmus Frauen diskriminierte, indem ihre Lebensläufe aussortiert wurden. Amazon beendete das Projekt nach eigener Aussage, bevor die Software zum Einsatz kam. Versuche, die Benachteiligung von Frauen zu beheben, hatten anscheinend keinen Erfolg.
Wie sind Menschen davon betroffen?
Algorithmische Diskriminierung in Bewerbungsverfahren ist kein theoretisches Konstrukt, sondern für viele Menschen Realität. Im Rahmen von FINDHR haben wir uns in sieben europäischen Ländern mit Betroffenen ausgetauscht (Albanien, Bulgarien, Deutschland, Griechenland, Italien, Niederlande, Serbien). Viele Betroffene fühlten sich ohnmächtig und waren frustriert, da sie auf ihre Bewerbungen, trotz zahlreicher Versuche und Anstrengungen oft nur automatisierte Absagen ausserhalb der Arbeitszeiten erhielten, ohne dass ihre Bewerbungsunterlagen je von einem Menschen gesichtet wurden. Einige passen ihre CVs, und somit auch einen Teil ihrer Identität an, um dem Algorithmus besser zu entsprechen: Sie ändern ihre Namen oder deren Schreibweise, damit sie «westlicher» klingen oder besser lesbar sind. Manche retuschieren ihre Fotos, um älter oder jünger zu wirken oder spielen ihre berufliche Erfahrung herunter, damit sie nicht als überqualifiziert oder «zu alt» aussortiert werden. Fakt ist: Diskriminierung am Arbeitsmarkt – ob durch Algorithmen oder Menschen – drängt Stellensuchende in prekäre Verhältnisse.
Lösungen, die Diskriminierung entgegenwirken
Was muss bei der Entwicklung und beim Einsatz von Personalauswahl-Software beachtet werden, um das Risiko von Diskriminierung zu reduzieren? Während drei Jahren haben wir im Rahmen von FINDHR Guidelines, Tools und Trainings entwickelt, um algorithmische Diskriminierung in Bewerbungsverfahren zu reduzieren. Diese sind jetzt öffentlich und frei verfügbar.
- FINDHR Toolkits mit konkreten Empfehlungen für Software-Entwickler*innen, HR- & Personalverantwortliche sowie für politische Entscheidungsträger*innen
- Guidelines und Methoden für inklusives Software-Design sowie den verantwortungsbewussten Einsatz und Unterhalt von algorithmischen Systemen im Recruiting
- Technische Tools und Software, die das Risiko von algorithmischen Diskriminierungen im Recruiting reduzieren
- Trainings für Fachpersonen, um auf das Risiko von algorithmischen Diskriminierungen im Recruiting zu sensibilisieren
- Erfahrungsberichte von Betroffenen und Tipps für Stellensuchende, um auf die häufig unsichtbaren Barrieren in der Stellensuche aufmerksam zu machen und die Lebensrealität von Betroffenen einzubeziehen
FINDHR Toolkits – Just Hiring!
Diskriminierung durch KI-Systeme am Arbeitsplatz kann durch verschiedene Akteur*innen gezielt reduziert werden. Die wichtigsten Ergebnisse und Erkenntnisse des FINDHR-Forschungsprojekts haben wir deshalb in drei zielgruppenspezifischen Toolkits aufbereitet. Diese enthalten fundierte Hintergrundinformationen sowie konkrete Handlungsempfehlungen, wie algorithmischer Diskriminierung in der Personalauswahl entgegengewirkt werden kann. Die Toolkits stehen als Webversion wie auch als PDFs zur Verfügung.
Guidelines und Methoden
FINDHR steht für die Überzeugung: Diskriminierung entsteht nicht ausschliesslich auf technischer Ebene und kann nicht allein dort behoben werden. Der soziale und kulturelle Kontext, in dem ein System entwickelt und eingesetzt wird, muss ebenso berücksichtigt werden. Unsere rechtliche Analyse verdeutlicht darüber hinaus die Spannungen zwischen Datenschutz- und Antidiskriminierungsvorschriften in Europa – und zeigt auf, dass auch auf politischer Ebene klarer Handlungsbedarf besteht.
Kurz gesagt: Algorithmische Diskriminierung in der Personalauswahl erfordert einen interdisziplinären Ansatz und muss über den gesamten Lebenszyklus eines Systems hinweg aktiv adressiert werden. Die folgenden drei FINDHR-Guideline-Dokumente enthalten Empfehlungen und Methoden dafür.
Der Software Development Guide hilft Entwickler*innen, neue Recruiting-Systeme fair und inklusiv zu designen, einzusetzen und zu pflegen.
Das Impact Assessment und Auditing Framework zeigt auf, wie sich algorithmische Systeme auf faire, rechtlich abgesicherte und ethisch vertretbare Weise überprüfen lassen, um diskriminierende Muster frühzeitig zu erkennen und zu vermeiden.

Technische Tools und Software
Im Rahmen von FINDHR haben wir aber nicht nur Empfehlungen, sondern auch konkrete technische Lösungen entwickelt, um Diskriminierung durch Recruitingsysteme vorzubeugen.


Trainings für Fachpersonen
Wir haben ein «Anti-discrimination training for algorithmic hiring» entwickelt, das sich unter anderem an HR-Verantwortliche, Software-Entwickler*innen, Wissenschaftler*innen und andere Fachpersonen richtet, die lernen möchten, wie es zu algorithmischer Diskriminierung in Einstellungsverfahren kommt und was sie tun können, um diese zu vermeiden.
Erfahrungsberichte von Betroffenen und Tipps für Stellensuchende
Diskriminierung kann nur wirksam reduziert werden, wenn Betroffene aktiv angehört und eingebunden werden. Unsere FINDHR-Berichte bieten Einblicke in reale Erfahrungen von Diskriminierung durch automatisierte Bewerbungsverfahren.
Basierend auf den Erkenntnissen aus den FINDHR-Fokusgruppen haben wir ein praktisches Handbuch für Stellensuchende entwickelt. Es bietet Ressourcen und Tipps um Bewerbungen und CVs für algorithmische Bewerbungsverfahren zu optimieren.
Diese Partner*innen sind am Projekt «FINDHR» beteiligt:
- Universitat Pompeu Fabra
- Universiteit van Amsterdam
- Universitá di Pisa
- Max-Planck-Institut für Sicherheit und Privatsphäre
- Radboud Universiteit
- Universiteit Utrecht
- Women in Development Europe+
- Praksis Association
- Eticas Research and Consulting
- Randstadt
- Adevinta
- AlgorithmWatch CH


This article is part of a project that has received funding from the European Union's Horizon Europe research and innovation program under grant agreement No 101070212. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union. Neither the European Union nor the granting authority can be held responsible for them.
This work is supported by the Swiss State Secretariat for Education, Research and Innovation (SERI) under contract number 22.00151.


