Position

Schutz vor Diskriminierung: Rahmenbedingungen für die automatisierte Personalauswahl

Algorithmische und KI-basierte Systeme werden immer öfter im Recruiting verwendet, beispielsweise um Lebensläufe vorzusortieren. Dabei kann es dazu kommen, dass Kandidat*innen diskriminiert werden, wie bisherige Erfahrungen zeigen. Unser Forschungsprojekt kommt zum Schluss, dass es bessere Rahmenbedingungen braucht.

Position

19. November 2025

#discrimination #work

Grafik Robert Báez Fábrica Memética für FINDHR CC BY 4.0
Angela Müller
Dr. Angela Müller
Geschäftsleiterin AlgorithmWatch CH | Gesellschafterin AlgorithmWatch
Estelle Pannatier
Senior Policy Managerin

Zwei Bewerbungen, gleiche Qualifikationen, ähnliche Erfahrungen – und doch wird die eine Bewerbung der anderen gegenüber bevorzugt, da der Name weniger «fremd» klingt: Das hat ein Experiment von Bloomberg aus dem Jahr 2024 gezeigt. Es kommt zum Schluss, dass generative KI-Modelle wie GPT 3.5 bei der Bewertung von Bewerbungen diskriminierende Muster reproduzieren können. Namen, die Assoziationen mit bestimmten Bevölkerungsgruppen wecken, wurden im Bloomberg-Experiment häufiger bevorzugt. Wenn gewisse Namen bevorzugt werden, werden andere benachteiligt. Wenn algorithmische Systeme diskriminierende Muster reproduzieren oder verschärfen, sind davon allerdings nicht nur einzelne Personen betroffen. Das System kann ganze Gruppen benachteiligen, und das in grossem Massstab. Da die Entscheidungslogik solcher Systeme oft unbekannt ist, lässt sich schwer nachvollziehen, warum manche Bewerber*innen für eine Stelle oder Beförderung als geeignet eingestuft werden und andere nicht.

Auch in der Schweiz werden algorithmische und KI-basierte Systeme immer öfter in der Personalauswahl verwendet. So nutzen zum Beispiel die SBB zur Auswahl von Bewerbungen einen Algorithmus, der automatisierte Entscheidungen trifft. Anhand von Fragen wird festgestellt, ob die Kandidat*innen bestimmte Kriterien erfüllen. Auch die Schweizerische Post nutzt ein KI-System, das einen Pool von Bewerber*innen mit einem Stellenprofil matchen soll. Oft bleibt aber die automatisierte Personalauswahl eine Blackbox: Bewerber*innen wissen nicht, wann ihre Bewerbung von einem KI-System analysiert wird und welchen Einfluss dieses auf die finale Entscheidung hat.

Wie regelt das Schweizer Recht die automatisierte Personalauswahl?

Das Schweizer Recht sieht nur punktuell Garantien gegen die Risiken vor, die mit dem Einsatz von KI im Bereich der Personalbeschaffung verbunden sind. Das Datenschutzgesetz (DSG) und das Obligationenrecht (OR) regeln, wie der Arbeitgeber Daten in Arbeitsverhältnissen erheben und verarbeiten darf. Auch vor der Einstellung darf er Daten über Bewerber*innen nur insofern bearbeiten, wenn es darum geht, ihre Eignung für die Stelle und die damit verbundenen Aufgaben zu beurteilen (Art. 328b OR). Das bedeutet beispielsweise auch, dass der Arbeitgeber nur Informationen aus Social Media und Suchmaschinen berücksichtigen darf, deren Erhebung verhältnismässig und für die Stelle erforderlich ist.

Bei einer vollständig automatisierten Entscheidung muss der Arbeitgeber gemäss Art. 21 DSG grundsätzlich die betroffene Person über diese Entscheidung informieren. Allerdings trifft dies nicht zu, wenn es um die automatisierte Bearbeitung im Rahmen einer Vorselektion von Bewerber*innen innerhalb des Rekrutierungsprozesses und eine automatisierte Zu- oder Absage für ein erstes Bewerbungsgespräch geht. Dies fällt gemäss einer Analyse des Bundesrates nicht unter den Begriff einer vollautomatisierten Entscheidung, da die daraus folgende Entscheidung weder mit einer Rechtsfolge noch einer erheblichen Beeinträchtigung i.S.v. Art. 21 Abs. 1 DSG verbunden sei (sektorielle Analyse, S. 26).

Wenn der Verdacht auf eine geschlechtsspezifische Diskriminierung bei der Personalauswahl besteht, haben Bewerber*innen zudem Anspruch auf eine detaillierte Erklärung des Entscheids. (Art. 8 Abs. 1 GlG). Dies betrifft aber nur die Diskriminierung aufgrund des Geschlechts und nicht die Diskriminierung aufgrund anderer geschützter Merkmale, die in Art. 8 Abs 2 der Bundesverfassung vorgesehen sind, wie beispielsweise die Herkunft, die «Rasse» oder die soziale Stellung. Nach Art. 328 OR ist es jedoch verboten, Bewerber*innen bei der Einstellung aufgrund eines dieser Merkmale zu diskriminieren. Wenn die Rekrutierung aber durch Algorithmen erfolgt, wissen Bewerber*innen dies oft gar nicht und können sich entsprechend kaum auf diese rechtlichen Garantien berufen.

Im Rahmen seiner Auslegeordnung zur KI-Regulierung hat der Bundesrat die Herausforderungen von KI in Bezug auf Transparenz, Nichtdiskriminierung und Datenschutz analysiert, auch im Bereich der Personalbeschaffung (Auslegeordnung, S 11). Er hat den Regulierungsbedarf anerkannt und bereitet bis Ende 2026 entsprechende Gesetzesentwürfe vor. Diesen Regulierungsprozess stellen wir in unserem Leitfaden vor.

Wie kann Automatisierung in der Personalauswahl besser reguliert werden?

Im Horizon-Europe-Projekt «FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation» haben wir mit einem europäischen, interdisziplinären Konsortium aus Wissenschaft, Industrie und Zivilgesellschaft Empfehlungen und Lösungsansätze dazu erarbeitet. Daraus ist unter anderem ein Toolkit für Policymaker entstanden, welches folgende Handlungsempfehlungen enthält.

KI-basierte Personalbeschaffungssysteme entlang ihres gesamten Lebenszyklus systematisch testen, überprüfen und bewerten

Transparenz, Datenschutz und Selbstbestimmung im Einstellungsprozess wahren

Die Verwendung sensibler Daten zur Minderung von Diskriminierungsrisiken muss rechtlich geklärt werden

Betroffene Personen brauchen mehr und wirksamere Rechte und Rechtsbehelfungsmechanismen

Intersektionale Diskriminierung soll im Gesetz angemessen berücksichtigt werden

Unterschiedliche Perspektiven einbeziehen

Neben Rahmenbedingungen auf politischer Ebene sind auch Massnahmen in der Softwareentwicklung sowie in den Personalabteilungen, die KI einsetzen, wichtig, um Bewerbende besser vor Diskriminierung zu schützen. In zwei weiteren FINDHR Toolkits zeigen wir auf, wie Software-Entwickler*innen, HR- und Personalverantwortliche Diskriminierung durch KI-Systeme am Arbeitsplatz gezielt reduzieren können. Weitere Empfehlungen, um den Schutz vor Diskriminierung durch Algorithmen und KI generell – über den Bereich der Personalauswahl hinaus – zu stärken, fassen wir in unserem Positionspapier «Schutz vor algorithmischer Diskriminierung» zusammen.

AlgorithmNews CH – abonniere jetzt unseren Newsletter!

Ich bin mit der Verarbeitung meiner Daten einverstanden und weiss, dass ich den Newsletter jederzeit abbestellen kann.