Moira Daviet im Interview

Algorithmische Diskriminierung in der Arbeitswelt

KI in Bewerbungsverfahren kann diskriminieren. Im Rahmen des Horizon Europe-Projekts FINDHR wird erforscht, wie dieser Art von Diskriminierung entgegengewirkt werden kann.

Die Arbeitswelt ist und war leider häufig von Diskriminierung geprägt: Durch den Einsatz von KI im Recruiting können neue Barrieren für den Zugang zum Arbeitsmarkt entstehen oder alte verschärft werden. Doch es gibt Methoden und Rahmenbedingungen, wie dieser Art von Diskriminierung entgegengewirkt werden kann. Daran wird unteranderem im Horizon Europe-Projekt FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation) geforscht. Unsere Researcherin Moira Daviet spricht über ihre Arbeit bei FINDHR und über das Projekt selbst.

Moira, wer bist du und was machst du bei AlgorithmWatch CH?

Ich habe Journalismus studiert und habe danach als Produktionsleiterin für verschiedene dokumentarische Formate gearbeitet. Bei AlgorithmWatch bin ich als Researcherin tätig und befasse mich mit algorithmischer Diskriminierung in der Personalauswahl. Ich finde es spannend, mich hier so vertieft mit diesem Thema auseinandersetzen zu können.

Wie macht AlgorithmWatch auf Diskriminierung durch KI-Systeme aufmerksam?

Zunächst durch Policy- und Advocacy-Arbeit und journalistische Recherchen. AlgorithmWatch ist aber auch Mitglied im europäischen Forschungsprojekt FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation), das von Horizon Europe gefördert wird. Darin werden Methoden, Algorithmen und Trainings entwickelt, um algorithmischer Diskriminierung in der Personalauswahl entgegenzuwirken. Wir versuchen, verschiedene Formen von Diskriminierung zu reduzieren, natürlich auch genderspezifische, die im Arbeitskontext ja leider noch immer stark verbreitet ist. 

Wie lässt sich Diskriminierung bei der algorithmischen Personalauswahl verhindern?

Es sollte ein Bewusstsein dafür geschaffen werden, dass algorithmische Systeme keine „objektiveren“ Personalentscheidungen treffen als Menschen. Im Gegenteil: es hat sich gezeigt, dass KI-Personalauswahl-Systeme bestehende diskriminierende Muster noch verstärken können oder sogar neue Barrieren schaffen. Wenn die KI-Systeme erst einmal in Gebrauch sind, sollten sie regelmässig überwacht werden, um diskriminierende Ergebnisse zu vermeiden. Ausserdem müssen solide rechtliche Rahmenbedingungen dafür sorgen, dass die Industrie verpflichtet ist, bestimmte Massnahmen umzusetzen.

Was steht als nächstes an bei FINDHR?

Das Projekt FINDHR dauert nur noch bis Ende Oktober 2025. Wir sind also mitten in der Endspurt-Phase. Die Resultate, Reports und Tools werden finalisiert und feingeschliffen und so aufbereitet, dass sie unsere Zielgruppen hoffentlich erreichen und auch in die Praxis einfliessen. Wir von AlgorithmWatch CH arbeiten an Toolkits, die die wichtigsten Ergebnisse kurz und zugänglich zusammenfassen. Ausserdem finden Webinare und Vertiefungskurse statt. Zum Beispiel eine Masterclass zum Thema “AI in recruiting”. Sie ist kostenlos und offen für alle die sich vertieft mit algorithmischer Diskriminierung in der Personalauswahl befassen möchten. Zur Anmeldung geht es hier.