Protection contre la discrimination: conditions-cadres pour la sélection automatisée du personnel

Les systèmes algorithmiques et basés sur l'IA sont de plus en plus utilisés dans le recrutement, par exemple pour présélectionner les CV. Ce faisant, des candidat·e·s peuvent être discriminé·e·s, comme le montrent des expériences en la matière. Notre projet de recherche conclut qu'il est nécessaire d'améliorer les conditions-cadres.

Grafik-Robert-Baez-Fabrica-Memetica-fur-FINDHR-CC-BY-4.0.jpg
Angela Müller
Dr. Angela Müller
Directrice d'AlgorithmWatch CH | Associée d’AlgorithmWatch
Estelle Pannatier
Chargée de politique senior
Moira Daviet
Chercheuse

Deux candidatures, mêmes qualifications, expériences similaires, et pourtant, l'une est préférée à l'autre parce que son nom semble moins «étranger»: c'est ce qu'a montré une expérience menée par Bloomberg en 2024. Elle conclut que les modèles d'IA générative tels que GPT 3.5 peuvent reproduire des schémas discriminatoires lors de l'évaluation des candidatures. Les noms qui évoquent des associations avec des groupes de population spécifiques ont été plus souvent privilégiés dans l'expérience de Bloomberg. Lorsque certains noms sont privilégiés, d'autres sont désavantagés. Cependant, lorsque les systèmes algorithmiques reproduisent ou exacerbent des schémas discriminatoires, cela ne touche pas seulement des individus isolés. Le système peut désavantager des groupes entiers, et ce à grande échelle. La logique de prise de décision de ces systèmes étant souvent inconnue, il est difficile de comprendre pourquoi certain·e·s candidat·e·s sont jugé·e·s aptes à occuper un poste ou à obtenir une promotion et d'autres non.

En Suisse aussi, les systèmes algorithmiques et basés sur l'IA sont de plus en plus utilisés dans la sélection du personnel. Les CFF, par exemple, utilisent un algorithme qui prend des décisions automatisées pour sélectionner les candidatures. Une série de questions permet de déterminer si les candidat·e·s répondent à certains critères. La Poste suisse utilise également un système d'IA destiné à mettre en correspondance un pool de candidat·e·s avec un profil de poste. La sélection automatisée du personnel reste cependant souvent une boîte noire: les candidat·e·s ne savent pas quand leur candidature est analysée par un système d'IA ni quelle influence celui-ci a sur la décision finale.

Comment le droit suisse réglemente-t-il la sélection automatisée du personnel?

Le droit suisse ne prévoit que des garanties ponctuelles contre les risques liés à l'utilisation de l'IA dans le domaine du recrutement. La loi sur la protection des données (LPD) et le code des obligations (CO) régissent la manière dont l'employeur peut collecter et traiter les données dans le cadre des relations de travail. Même avant l'embauche, il peut uniquement traiter les données des candidat·e·s si cela est nécessaire pour évaluer leur aptitude à occuper le poste et à accomplir les tâches qui y sont liées (art. 328b CO). Cela signifie par exemple que l'employeur ne peut prendre en compte que les informations provenant des réseaux sociaux et des moteurs de recherche dont la collecte est proportionnée et nécessaire pour le poste.

En cas de décision entièrement automatisée, l'employeur doit, conformément à l'art. 21 LPD, informer la personne concernée de cette décision. Toutefois, cela ne s'applique pas au traitement automatisé dans le cadre d'une présélection de candidat·e·s au cours du processus de recrutement et à une acceptation ou un refus automatisé pour un premier entretien d'embauche. Selon une analyse du Conseil fédéral, cela ne relève pas de la notion de décision entièrement automatisée, car la décision qui en résulte n'est associée ni à une conséquence juridique ni à une atteinte importante au sens de l'art. 21, al. 1, LPD (analyse sectorielle, p. 26).

En cas de suspicion de discrimination fondée sur le sexe lors de la sélection du personnel, les candidat·e·s ont également droit à une explication détaillée de la décision (art. 8, al. 1, LEg). Cela ne concerne toutefois que la discrimination fondée sur le sexe et non la discrimination fondée sur d'autres caractéristiques protégées prévues à l'art. 8, al. 2, de la Constitution fédérale, telles que l'origine, la «race» ou la position sociale. Selon l'art. 328 CO, il est toutefois interdit de discriminer les candidat·e·s lors du recrutement sur la base de l'un de ces critères. Mais lorsque le recrutement est effectué à l'aide d'algorithmes, les candidat·e·s n'en ont souvent pas conscience et peuvent donc difficilement invoquer ces garanties juridiques.

Dans le cadre de son état des lieux sur la réglementation de l'IA, le Conseil fédéral a analysé les défis posés par l'IA en matière de transparence, de non-discrimination et de protection des données, y compris dans le domaine du recrutement (état des lieux, p. 11). Il a reconnu la nécessité d'une réglementation et prépare des projets de loi à cet effet d'ici fin 2026. Nous présentons ce processus de réglementation dans notre guide.

Comment mieux réglementer l'automatisation dans la sélection du personnel?

Dans le cadre du projet Horizon Europe «FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation», nous avons élaboré des recommandations et des solutions avec un consortium européen interdisciplinaire composé de représentant·e·s des milieux scientifiques, industriels et de la société civile. Cela a notamment donné lieu à la création d'une boîte à outils pour les décisionnaires politiques, qui contient les recommandations suivantes.

Tester, contrôler et évaluer systématiquement les systèmes de recrutement basés sur l'IA tout au long de leur cycle de vie

Garantir la transparence, la protection des données et l'autodétermination dans le processus de recrutement

Clarifier l'utilisation de données sensibles pour réduire les risques de discrimination sur le plan juridique

Doter les personnes concernées de davantage de droits et de mécanismes de recours plus efficaces

Prendre en compte la discrimination intersectionnelle de manière appropriée dans la loi

Intégrer différentes perspectives

Outre les conditions-cadres au niveau politique, des mesures dans le domaine du développement de logiciels et dans les services des ressources humaines qui utilisent l'IA sont également importantes pour mieux protéger les candidat·e·s contre la discrimination. Dans deux autres boîtes à outils FINDHR, nous montrons comment les développeur·euse·s de logiciels, les responsables des ressources humaines et les responsables du personnel peuvent réduire de manière ciblée la discrimination par les systèmes d'IA sur le lieu de travail. Nous résumons d'autres recommandations visant à renforcer la protection contre la discrimination par les algorithmes et l'IA en général, au-delà du domaine de la sélection du personnel, dans notre papier de position «Protection contre la discrimination algorithmique».