Entretien avec Moira Daviet

La discrimination algorithmique dans le monde du travail

Lorsque l’IA est utilisée dans les procédures de recrutement, elle peut entraîner des discriminations. Dans le cadre du projet Horizon Europe FINDHR, des recherches sont menées sur les moyens de lutter contre ce type de discrimination.

Le monde du travail est, et a malheureusement souvent été, marqué par la discrimination. L'utilisation de l'IA dans le recrutement peut créer de nouveaux obstacles pour l'accès à l'emploi, ou exacerber les barrières existantes. Il existe cependant des méthodes et des conditions-cadres qui permettent de lutter contre ce type de discrimination. Le projet Horizon Europe FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation) mène des recherches à ce sujet. Notre chercheuse Moira Daviet raconte son travail dans le cadre de FINDHR et explique le projet.

Moira, qui es-tu et que fais-tu chez AlgorithmWatch CH?

J'ai fait des études de journalisme et j'ai ensuite travaillé comme directrice de production pour différents formats documentaires. Chez AlgorithmWatch, je travaille comme chercheuse et je m'occupe de la discrimination algorithmique dans la sélection du personnel. Je trouve passionnant de pouvoir aborder ce sujet de manière aussi approfondie.

Comment AlgorithmWatch attire-t-elle l'attention sur la discrimination par les systèmes d'IA?

AlgorithmWatch rend ces discriminations visibles par un travail de politique et de plaidoyer ainsi que par des recherches journalistiques. Mais notre organisation est également membre du projet de recherche européen FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation), financé par Horizon Europe. Le projet développe des méthodes, des algorithmes et des formations afin de lutter contre la discrimination algorithmique dans la sélection du personnel. Nous essayons de réduire différentes formes de discrimination, y compris bien sûr la discrimination fondée sur le genre, qui est malheureusement encore très répandue dans le contexte du travail.

Comment prévenir la discrimination dans la sélection algorithmique du personnel?

Il faut tout d’abord prendre conscience que les systèmes algorithmiques ne prennent pas de décisions plus «objectives» en matière de recrutement que les humains. Au contraire, il a été démontré que les systèmes d’IA utilisés pour la sélection du personnel peuvent renforcer les modèles discriminatoires existants ou même créer de nouvelles barrières. Une fois que les systèmes d'IA sont utilisés, ils doivent faire l'objet d'un suivi régulier afin d'éviter les résultats discriminatoires. En outre, un cadre juridique solide doit garantir que l'industrie est obligée de mettre en œuvre certaines mesures.

Quelle est la prochaine étape de FINDHR?

Le projet FINDHR se termine fin octobre 2025. Nous sommes donc en plein dans la phase finale. Les résultats, les rapports et les outils sont finalisés et peaufinés, et préparés de telle sorte qu'ils atteignent, nous l'espérons, nos groupes cibles et qu'ils soient également intégrés dans la pratique. Chez AlgorithmWatch CH, nous travaillons sur des boîtes à outils qui résument les principaux résultats de manière concise et accessible. En outre, des webinaires et des cours d'approfondissement sont organisés. Par exemple, une masterclass sur le thème «AI in recruiting». Elle est gratuite et ouverte à toutes celles et ceux qui souhaitent approfondir la thématique de la discrimination algorithmique dans la sélection du personnel. Vous pouvez vous y inscrire ici.