Explication

Automatiquement rejeté·e? Quand l’IA discrimine dans les processus de recrutement

Les systèmes d’aide au recrutement basés sur l’IA permettent de présélectionner et d’évaluer les candidatures ou de recommander des candidat·e·s. Ces systèmes algorithmiques peuvent faire gagner du temps aux responsables RH, mais présentent également un risque de discrimination systémique, souvent difficile à identifier.

Moira Daviet
Chercheuse

La recherche de personnel est chronophage et coûteuse. Les employeurs et responsables des ressources humaines doivent souvent traiter des centaines de candidatures par offre d’emploi dans des délais très courts. De plus en plus d’organisations, publiques comme privées, utilisent des systèmes de décision algorithmiques, appelés Applicant Tracking Systems (ATS), qui les aident à présélectionner les candidatures. Les services RH et les agences de recrutement espèrent ainsi gagner du temps et réduire leurs coûts. Ces systèmes intègrent de plus en plus souvent des fonctions basées sur l’IA.

Les algorithmes ne sont pas exempts de préjugés

Les systèmes algorithmiques sont réputés pour leur plus grande «objectivité» ou «neutralité»: ils sont censés rendre les processus de candidature plus équitables. Toutefois, les systèmes de recrutement peuvent reproduire des schémas discriminatoires existants, les aggraver et même créer de nouvelles formes de discrimination. 

Si, par exemple, les postes de direction dans une entreprise sont depuis longtemps principalement occupés par des hommes, les systèmes algorithmiques risquent de reproduire cette inégalité et de considérer d’emblée les candidates comme moins aptes à occuper ces postes lors du processus de sélection.

Un exemple frappant est le système de candidature développé par Amazon. Dès la phase de test, il serait apparu que le système désavantageait les candidates en attribuant systématiquement de moins bonnes notes à leurs CV. Selon Amazon, le projet a été abandonné avant d’être mis en œuvre. Les mesures de correction sont apparemment restées sans effet.

Les données avec lesquelles les algorithmes sont entraînés reflètent les schémas de pensée, les stéréotypes ainsi que les préjugés sociaux et structurels existants. De plus, les décisions prises par les équipes de développement de logiciels et par les utilisateur·rice·s de ces systèmes influencent fortement les résultats, car leurs valeurs sont intégrées aux systèmes. En résumé, de tels systèmes ne sont en aucun cas neutres ni objectifs.

La discrimination algorithmique est complexe et subtile

La discrimination par l’IA et les algorithmes passe très souvent inaperçue. Personne ne sait dans quelle mesure les systèmes peuvent désavantager certaines personnes en recherche d’emploi. La discrimination algorithmique peut affecter tout le monde, mais elle frappe particulièrement les personnes déjà confrontées à des discriminations liées au sexe, à l’origine, à l’âge, à l’orientation sexuelle ou à la religion. Une personne peut également être discriminée sur plusieurs critères simultanément, subissant ainsi des formes de discrimination amplifiées, ce que l’on appelle la discrimination intersectionnelle. Les équipes qui développent les systèmes de recrutement algorithmiques sont confrontées à des difficultés particulières lorsqu’il s’agit d’éviter la discrimination intersectionnelle. 

Sur la seule base du nom ou de la photo d’un·e candidat·e, un système d’IA peut entraîner un traitement injuste de la candidature. Des personnes en recherche d’emploi ont rapporté qu’après plusieurs candidatures infructueuses, elles ont essayé d’obtenir de meilleurs résultats en modifiant leur nom ou son orthographe pour qu’il paraisse «plus occidental» ou plus facile à lire. Certaines personnes retouchent leurs photos pour paraître plus jeunes ou plus âgées, ou minimisent délibérément leur expérience professionnelle, craignant d’être écartées en raison de leur surqualification ou de leur âge. 

Mais même dans le cas de candidatures anonymisées, il arrive que les systèmes de recrutement algorithmiques déduisent certaines caractéristiques démographiques des candidat·e·s (comme la nationalité, l’âge ou le sexe), bien que celles-ci ne figurent pas explicitement sur le CV. Les candidatures contiennent souvent des indices subtils, appelés proxies, qui permettent ces inférences. Les compétences linguistiques, l’expérience professionnelle ou le parcours scolaire peuvent refléter l’origine ethnique, l’âge ou le sexe de la personne qui postule. Comme la discrimination se cache derrière ces variables appelées proxies, il est difficile de la détecter et de la prévenir. 

Les processus de candidature en ligne peuvent exclure certaines personnes dès le départ

L’automatisation intervient à plusieurs étapes du processus de recrutement: lors de la publication de l’offre d’emploi, de la présélection des candidatures, sous la forme d’outils d’évaluation numériques lors des entretiens d’embauche ou lors de l’évaluation finale des candidat·e·s.

La discrimination algorithmique peut intervenir avant même que les candidat·e·s postulent à un emploi. Le choix de la plateforme et l’optimisation algorithmique du public cible déterminent de manière significative qui verra l’offre d’emploi.

Une expérience d’AlgorithmWatch a par exemple montré que les plateformes en ligne, dans ce cas précis Facebook, diffusent les annonces de manière discriminatoire. Même lorsqu’elles n’étaient pas destinées à un groupe cible précis, les offres d’emploi étaient automatiquement optimisées de manière à être diffusées principalement auprès des hommes ou des femmes, selon les stéréotypes. Une offre d’emploi pour un poste de conducteur·rice de poids lourd a été principalement rendue visible par des hommes, tandis qu’une annonce pour des gardes d’enfants a été presque exclusivement rendue visible par des femmes, bien que nous n’ayons pas spécifié de groupe cible en fonction du genre.

Facebook utilise notamment le contenu visuel des annonces pour prédire qui sera susceptible de cliquer dessus. Afin de prévenir toute discrimination, une offre d’emploi doit être rédigée de manière à éviter les stéréotypes, car les systèmes algorithmiques pourraient les reproduire dans leurs décisions. Si une entreprise utilise dans une offre d’emploi une image montrant un groupe spécifique de personnes, les algorithmes de recommandation pourraient principalement diffuser l’annonce auprès des personnes issues de ce groupe. Cela risque de restreindre dès le départ la diversité des candidat·e·s potentiel·le·s.

L’utilisation de systèmes algorithmiques dans le processus de candidature n’est guère transparente. Les candidat·e·s savent donc rarement si leurs documents sont en premier lieu examinés par un système ou par une personne. Cependant, la «première impression» laissée par un CV repose sur des critères différents selon qu’il soit lu par un algorithme ou un être humain: alors que les éléments graphiques tels que les couleurs, les arrière-plans ou les retours à la ligne peuvent attirer l’attention des responsables RH, ils peuvent rendre la lisibilité du contenu plus difficile pour les systèmes algorithmiques. Une expérience a montré que des candidat·e·s, pourtant qualifié·e·s, étaient écarté·e·s en raison de la mise en forme de leur CV – donc en raison de facteurs qui n’avaient rien à voir avec leurs qualifications. L’efficacité et la capacité du système à analyser un CV (parsability) se sont avérées être un facteur décisif pour le résultat de l’évaluation.

La discrimination algorithmique est difficile à détecter ou à comprendre pour les personnes concernées. Il serait donc urgent d’assurer la transparence quant à l’utilisation des systèmes de candidature algorithmiques et de proposer des formations ciblées aux personnes en recherche d’emploi afin qu’elles puissent optimiser leurs candidatures en ligne. 

En raison du manque de transparence de nombreux systèmes algorithmiques, il est souvent difficile de comprendre à quel moment, comment et pourquoi la discrimination se produit. Cependant, les conséquences sont problématiques pour toutes les parties concernées.

Les droits fondamentaux des personnes ou groupes de personnes concernés sont bafoués lorsqu’ils subissent un désavantage lié à des caractéristiques protégées, entravant leur accès à l’emploi. Dans le même temps, cela engendre des coûts considérables pour les employeurs: outre les risques liés à la réputation, le risque de passer à côté de talents qualifiés et compétents, écartés par les systèmes d’IA, est réel. Cette situation peut avoir un impact négatif sur la diversité des employé·e·s et, en fin de compte, sur les performances de l’entreprise.

Comment le droit suisse réglemente-t-il la sélection automatisée du personnel?

Le droit suisse ne prévoit que des garanties ponctuelles contre les risques liés à l'utilisation de l'IA dans le domaine du recrutement. La loi sur la protection des données (LPD) et le code des obligations (CO) régissent la manière dont l'employeur peut collecter et traiter les données dans le cadre des relations de travail. Même avant l'embauche, il peut uniquement traiter les données des candidat·e·s si cela est nécessaire pour évaluer leur aptitude à occuper le poste et à accomplir les tâches qui y sont liées (art. 328b CO). Cela signifie par exemple que l'employeur ne peut prendre en compte que les informations provenant des réseaux sociaux et des moteurs de recherche dont la collecte est proportionnée et nécessaire pour le poste.

En cas de décision entièrement automatisée, l'employeur doit, conformément à l'art. 21 LPD, informer la personne concernée de cette décision. Toutefois, cela ne s'applique pas au traitement automatisé dans le cadre d'une présélection de candidat·e·s au cours du processus de recrutement et à une acceptation ou un refus automatisé pour un premier entretien d'embauche. Selon une analyse du Conseil fédéral, cela ne relève pas de la notion de décision entièrement automatisée, car la décision qui en résulte n'est associée ni à une conséquence juridique ni à une atteinte importante au sens de l'art. 21, al. 1, LPD (analyse sectorielle, p. 26).

En cas de suspicion de discrimination fondée sur le sexe lors de la sélection du personnel, les candidat·e·s ont également droit à une explication détaillée de la décision (art. 8, al. 1, LEg). Cela ne concerne toutefois que la discrimination fondée sur le sexe et non la discrimination fondée sur d'autres caractéristiques protégées prévues à l'art. 8, al. 2, de la Constitution fédérale, telles que l'origine, la «race» ou la position sociale. Selon l'art. 328 CO, il est toutefois interdit de discriminer les candidat·e·s lors du recrutement sur la base de l'un de ces critères. Mais lorsque le recrutement est effectué à l'aide d'algorithmes, les candidat·e·s n'en ont souvent pas conscience et peuvent donc difficilement invoquer ces garanties juridiques.

Dans le cadre de son état des lieux sur la réglementation de l'IA, le Conseil fédéral a analysé les défis posés par l'IA en matière de transparence, de non-discrimination et de protection des données, y compris dans le domaine du recrutement (état des lieux, p. 11). Il a reconnu la nécessité d'une réglementation et prépare des projets de loi à cet effet d'ici fin 2026. Nous présentons ce processus de réglementation dans notre guide.

Des solutions existent pour réduire la discrimination

L’accès au marché du travail a malheureusement toujours été marqué par la discrimination. Les modèles discriminants existants ne sont pas automatiquement compensés par des processus numériques. La bonne nouvelle: la discrimination peut être réduite lorsque l’ensemble des personnes impliquées assument leurs responsabilités.

AlgorithmWatch a participé au projet de recherche international «FINDHR», qui a développé des méthodes et des recommandations pour lutter contre la discrimination algorithmique dans le recrutement du personnel:

Les principaux résultats et enseignements de ce projet de recherche sont compilés dans trois boîtes à outils spécifiques à chaque groupe cible. Celles-ci contiennent des informations de fond étayées ainsi que des recommandations concrètes sur la manière de lutter contre la discrimination algorithmique dans le recrutement.

Les responsables RH peuvent sensibiliser leurs équipes aux risques liés à la discrimination. En outre, il est possible de faire examiner de manière critique le processus de candidature et les systèmes impliqués, tant en interne qu’en externe, afin de détecter toute discrimination potentielle.

Grâce à une conception logicielle inclusive et équitable et à une logique décisionnelle compréhensible et transparente, les équipes de développement de logiciels peuvent contribuer de manière significative à rendre les systèmes algorithmiques plus transparents et donc plus faciles à contrôler. Il est par exemple possible de tenir compte des besoins des différentes parties prenantes qui seront en contact avec le système dans le processus de développement et de conception et de recueillir différents points de vue. Cela implique, par exemple, de concevoir l’interface utilisateur de manière à ce qu’elle soit aussi accessible que possible et facile à utiliser pour les personnes ayant peu de connaissances techniques. En outre, les équipes de développement doivent être en mesure d’expliquer clairement les facteurs qui ont conduit à l’évaluation correspondante. Cela aide les responsables RH à mieux classer les recommandations algorithmiques et les candidat·e·s à créer leur profil en fonction de critères spécifiques.

Les décisionnaires politiques peuvent enfin veiller à renforcer les cadres juridiques et politiques afin de mieux protéger les personnes en recherche d’emploi et les travailleur·euse·s contre la discrimination algorithmique, par exemple en mettant en place, au niveau national et/ou européen, des mécanismes de plainte permettant de signaler les cas de discrimination algorithmique dans les procédures de recrutement. De même, les entreprises et les autorités qui développent, proposent ou utilisent des systèmes algorithmiques devraient être tenues de réaliser régulièrement des analyses d’impact et des audits indépendants standardisés afin de vérifier que ces systèmes ne présentent pas de risques discriminatoires. Dans notre prise de position «Protection contre la discrimination: conditions-cadres pour la sélection automatisée du personnel», nous indiquons les mesures qui devraient être prises en Suisse à cet effet.

AlgorithmNews CH – abonne-toi maintenant à notre newsletter !

Je suis d'accord avec le traitement de mes données et je sais que je peux me désabonner de la newsletter à tout moment.