
Projet «FINDHR»
Just Hiring! Comment éviter la discrimination par les algorithmes dans les processus de recrutement
Une IA qui présélectionne les candidatures à un emploi? Dans le cadre du projet Horizon Europe «FINDHR», nous avons développé des algorithmes, des méthodes et des formations visant à réduire la discrimination lorsque l’IA est utilisée dans le recrutement. Voici nos résultats.

Projet en cours
Durée du projet: novembre 2022 à octobre 2025
Comment identifier les candidatures adéquates parmi un grand nombre de candidatures? Les processus de candidature et de recrutement sont complexes et chronophages. D’où le souhait fréquent d’automatiser une partie de ce travail. Avec des systèmes algorithmiques ou basés sur l’IA, il est par exemple possible de pré-sélectionner les CV ou d’établir des classements de candidat·e·s. De tels systèmes peuvent cependant, souvent de manière imperceptible, aussi reproduire des schémas discriminatoires et rendre l’accès au marché du travail encore plus difficile pour les candidat·e·s.
Dans le cadre du projet «FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation», nous avons collaboré avec un consortium européen interdisciplinaire composé de représentant·e·s du monde scientifique, de l’industrie et de la société civile afin d’élaborer des solutions pour lutter contre ce type de discrimination.
Discrimination algorithmique dans le recrutement
Qu’est-ce que cela signifie?
L’utilisation de systèmes de recrutement basés sur l’IA promet aux responsables des ressources humaines de gagner du temps et d’être plus efficaces, tout en identifiant les meilleures candidatures. Cependant, l’expérience montre que leur utilisation peut reproduire des schémas discriminatoires et même aggraver les obstacles discriminatoires sur le marché du travail. La discrimination intersectionnelle représente un défi particulier. En effet, la combinaison de plusieurs caractéristiques personnelles (comme le genre, l’âge, la religion, l’origine ou l’orientation sexuelle) crée de nouvelles formes de discrimination ou renforce celles qui existent déjà.
L’un des exemples les plus connus de discrimination algorithmique dans les processus de recrutement est un système qui aurait été développé par Amazon. Alors qu’il était encore en phase de test, il aurait été constaté que son algorithme de recommandation était discriminatoire envers les femmes, dont les CV étaient écartés. Amazon a déclaré avoir mis fin au projet avant même que le logiciel ne soit utilisé. Les tentatives visant à remédier à la discrimination envers les femmes n’auraient apparemment pas abouti.
Comment les personnes sont-elles affectés?
La discrimination algorithmique dans les procédures de candidature n’est pas une construction théorique, mais une réalité vécue par de nombreuses personnes. Dans le cadre du projet FINDHR, nous avons échangé avec des personnes concernées dans sept pays européens (Albanie, Allemagne, Bulgarie, Grèce, Italie, Pays-Bas et Serbie). Beaucoup d’entre elles se sentaient impuissantes et frustrées, car malgré de nombreuses démarches et des efforts conséquents, elles ne recevaient souvent que des refus automatiques en dehors des heures de travail, sans que leur dossier de candidature ne soit jamais examiné par un être humain. Certaines personnes vont jusqu’à adapter leurs CV, et donc une partie de leur identité, pour mieux correspondre à l’algorithme: elles modifient leur nom ou son orthographe pour qu’il semble plus «occidental» ou plus facile à lire. D’autres retouchent leurs photos pour paraître plus âgées ou plus jeunes, ou minimisent leur expérience professionnelle afin de ne pas être écartées pour cause de surqualification ou de «vieillesse». Le fait est que la discrimination sur le marché du travail, qu’elle soit due à des algorithmes ou à des êtres humains, place les personnes en recherche d’emploi dans des situations précaires.
Solutions pour lutter contre la discrimination
Quels sont les éléments à prendre en compte lors du développement et de l’utilisation d’un logiciel de recrutement afin de réduire le risque de discrimination? Pendant trois ans, dans le cadre du projet FINDHR, nous avons élaboré des lignes directrices, des outils et des formations pour réduire la discrimination algorithmique dans les procédures de recrutement. Ces ressources sont désormais publiques et librement accessibles.
- Boîtes à outils FINDHR avec des recommandations concrètes pour les équipes de développement de logiciels, les responsables RH et les décisionnaires politiques
- Directives et méthodes pour une conception logicielle inclusive et une utilisation et une maintenance responsables des systèmes algorithmiques dans le recrutement
- Outils techniques et logiciels qui réduisent le risque de discrimination algorithmique dans le recrutement
- Formations pour les spécialistes afin de les sensibiliser au risque de discrimination algorithmique dans le recrutement
- Témoignages de personnes concernées et conseils pour les personnes en recherche d’emploi afin d’attirer l’attention sur les obstacles souvent invisibles dans la recherche d’emploi et de prendre en compte la réalité quotidienne des personnes concernées
Boîtes à outils FINDHR – Just Hiring!
Il est possible de réduire de manière ciblée la discrimination par les systèmes d’IA sur le lieu de travail grâce à l’intervention de différent·e·s acteur·rice·s. Nous avons donc compilé les principaux résultats et enseignements du projet de recherche FINDHR dans trois boîtes à outils spécifiques à chaque groupe cible. Celles-ci contiennent des informations de fond étayées ainsi que des recommandations concrètes sur la manière de lutter contre la discrimination algorithmique dans le recrutement. Les boîtes à outils sont disponibles en version web et en format PDF.
Directives et méthodes
FINDHR est convaincu que la discrimination ne se manifeste pas uniquement au niveau technique et ne peut pas être éliminée exclusivement à ce niveau. Le contexte social et culturel dans lequel un système est développé et utilisé doit également être pris en compte. Notre analyse juridique met également en évidence les tensions entre les réglementations en matière de protection des données et de lutte contre la discrimination en Europe, et montre qu’il est également nécessaire d’agir au niveau politique.
En résumé, la discrimination algorithmique dans le recrutement nécessite une approche interdisciplinaire et doit être activement abordée tout au long du cycle de vie d’un système. Les trois documents suivants, issus des lignes directrices FINDHR, contiennent des recommandations et des méthodes en ce sens.
Le guide de développement logiciel aide les équipes de développement à concevoir, mettre en œuvre et entretenir de nouveaux systèmes de recrutement équitables et inclusifs.
Le cadre d’analyse d’impact et d’audit montre comment les systèmes algorithmiques peuvent être contrôlés de manière équitable, conforme au droit et éthiquement responsable, afin de détecter et d’éviter à temps les schémas discriminatoires.

Outils techniques et logiciels
Dans le cadre du projet FINDHR, nous avons non seulement formulé des recommandations, mais également développé des solutions techniques concrètes afin de prévenir la discrimination par les systèmes de recrutement.


À partir de CV réels, nous avons créé des CV fictifs et développé à partir de ceux-ci des méthodes de lutte contre la discrimination, par exemple en générant un jeu de données synthétiques. Dans le cadre d’une campagne de don de données, 1100 personnes nous ont fourni leur CV anonymisé, un grand merci à elles!
Formations pour les spécialistes
Nous avons développé une «formation anti-discrimination dans le cadre du recrutement algorithmique» qui s’adresse notamment aux responsables RH, aux équipes de développement de logiciels, aux scientifiques et à d’autres professionnel·le·s qui souhaitent comprendre comment la discrimination algorithmique peut survenir dans les processus de recrutement et comment l’éviter.
Témoignages de personnes concernées et conseils pour les personnes en recherche d’emploi
La discrimination ne peut être efficacement jugulée que si les personnes concernées sont activement écoutées et impliquées. Nos rapports FINDHR offrent un aperçu d’expériences réelles de discrimination dans des procédures de candidature automatisées.
Sur la base des conclusions des groupes de discussion FINDHR, nous avons élaboré un guide pratique à l’intention des personnes en recherche d’emploi. Il propose des ressources et des conseils pour adapter les candidatures et les CV aux processus de candidature algorithmiques.
Ces partenaires participent au projet «FINDHR»:
- Universitat Pompeu Fabra
- Universiteit van Amsterdam
- Universitá di Pisa
- Max-Planck-Institut für Sicherheit und Privatsphäre
- Radboud Universiteit
- Universiteit Utrecht
- Women in Development Europe+
- Praksis Association
- Eticas Research and Consulting
- Randstadt
- Adevinta
- AlgorithmWatch CH


This article is part of a project that has received funding from the European Union's Horizon Europe research and innovation program under grant agreement No 101070212. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union. Neither the European Union nor the granting authority can be held responsible for them.
This work is supported by the Swiss State Secretariat for Education, Research and Innovation (SERI) under contract number 22.00151.


