Projet «FINDHR»

Éviter la discrimination par les algorithmes lors du recrutement du personnel

AlgorithmWatch CH participe au projet Horizon Europe «FINDHR». L'objectif de ce projet de recherche interdisciplinaire est de lutter contre les effets discriminatoires des logiciels dans le domaine de la sélection du personnel et de développer des méthodes, des outils et des formations pour les éviter.

Projet

20 Avril 2023 (mise à jour: 16 Janvier 2025)

Auf Deutsch lesenRead in English

#discrimination #work

Responsable du projet

Moira Daviet
Chercheuse

Projet en cours
Durée du projet: novembre 2022 à octobre 2025

Comment trouver les candidat·e·s les plus approprié·e·s parmi un grand nombre de candidatures? Les processus de candidature et de recrutement sont un défi et impliquent beaucoup d'efforts. Il est compréhensible de vouloir confier une partie du travail de ces processus à des systèmes de décision algorithmiques. Ces systèmes algorithmiques permettent par exemple de prétrier les candidatures à l'aide des CV ou d'établir des classements des candidat·e·s à l'aide de tests en ligne. Leur utilisation promet de faire gagner du temps et d'augmenter l'efficacité, tout en trouvant les meilleur·e·s candidat·e·s. Mais les expériences ont jusqu’ici montré que leur utilisation peut reproduire des schémas de discrimination et même accroître les obstacles discriminatoires sur le marché du travail.

L'un des exemples les plus connus est un logiciel de candidature qu'Amazon aurait développé. Il devait rendre les processus de recrutement plus efficaces. Cependant, alors que le logiciel était encore en phase de test, il s'est avéré que l'algorithme de recommandation du logiciel était discriminatoire à l'égard des femmes en éliminant leurs CV. Amazon a déclaré avoir mis fin au projet avant que le logiciel ne soit utilisé, car les tentatives de remédier à la discrimination des femmes n'ont pas abouti.

Objectif de recherche

De quoi faut-il tenir compte lors du développement et de l'utilisation de logiciels de sélection du personnel afin d'exclure toute discrimination dès le départ? Des réponses à cette question doivent être élaborées dans le cadre du projet «FINDHRFairness and Intersectional Non-Discrimination in Human Recommendation». Le projet financé par l'UE a pour objectif de développer des algorithmes équitables pour la sélection du personnel en utilisant une approche contextuelle. Celle-ci ne prend pas seulement en compte les aspects techniques des algorithmes, mais aussi, par exemple, le contexte de leur création ou les conséquences sociales qui découlent de leur utilisation. Le consortium de recherche interdisciplinaire et international dont AlgorithmWatch CH fait partie travaille depuis novembre 2022 sur:

Perspective juridique et éthique

Le développement d'applications d'IA sensibles à la discrimination nécessite le traitement de données sensibles. C'est pourquoi le projet comprend une analyse juridique qui examinera les tensions entre la législation sur la protection des données et la législation antidiscriminatoire en Europe. Le projet implique des groupes potentiellement touchés par la discrimination.

AlgorithmWatch CH, en collaboration avec d'autres partenaires du projet, se concentre sur le développement d'outils garantissant que l'utilisation d'algorithmes dans les processus de recrutement du personnel est basée sur des principes éthiques et ne reproduit pas de préjugés discriminatoires. En outre, AlgorithmWatch CH contribue, par son travail de plaidoyer basé sur des preuves, à préparer les résultats du projet et à les communiquer à différents groupes cibles.

Actualités du projet

Tous les résultats sont publiés sous forme de publications en accès libre, de logiciels open source, de jeux de données ouverts et de supports de cours ouverts. Nous partagons régulièrement les résultats sur nos canaux de médias sociaux, sur le site internet de FINDHR et ici sur notre site internet AlgorithmWatch CH.

Donne-nous un retour sur nos recherches en cours

Nous aimerions entendre ta voix! Nous travaillons sur des outils permettant de prévenir la discrimination par l'IA lors du recrutement. Avec nos partenaires, nous nous sommes concentrés sur trois thèmes de recherche: le développement de logiciels, l’analyse d'impact et les mécanismes de contrôle. La question que nous te posons: Que penses-tu de nos propositions? Est-ce qu'il manque quelque chose? Que pouvons-nous améliorer?

Tu es intéressé·e à nous donner ton avis? Contacte maintenant Moira Daviet, responsable du projet FindHR: daviet@algorithmwatch.ch!


Cours: prévenir les discriminations dans le recrutement algorithmique

Nous avons développé une «formation anti-discrimination pour le recrutement algorithmique» qui s'adresse entre autres aux responsables RH, aux agences de recrutement et à d'autres professionnel·le·s qui souhaitent apprendre comment la discrimination algorithmique se produit dans les procédures de recrutement et ce qu’il est possible de faire pour l'éviter.

Nous avons développé deux types de formations, que nous proposons toutes deux gratuitement:

  • une masterclass de 3 heures: les prochaines sessions auront lieu le 21 février 2025 (délai d'inscription: 26 janvier 2025) et le 27 juin 2025 (délai d'inscription: 30 mai 2025). Inscris-toi ici pour participer.
  • un cours de 30 heures sur la non-discrimination dans l'utilisation de l'IA pour le recrutement

Découvre plus d'informations à ce sujet et consulte le matériel de cours ici.


Expert Reports

En 2023, nous avons demandé à des expert·e·s renommé·e·s d'étudier les discriminations dans le domaine des procédures algorithmiques d'embauche des groupes marginalisés:

  • «The Case for Latin American Migrants Seeking Emplyoment Opportunities in Spain» de César Rosales, Nataly Buslón, Fabio Curi and Raquel Jorge (2023)
  • «Tracing Bias Transfer Between Employment Discrimination and Algorithmic Hiring with Migrant Tech Workers in Berlin» de Lin, Jie Liang (2023).
  • «Ensuring Human Intelligence in AI Hiring Tools» de Paksy Plackis-Cheng, Tejo Chalasani, Sabrina Palme, et al. (2023)

Lire les rapports d’expert·e·s ici.


Campagne de don de données

Dans le cadre de FINDHR, nous développons des outils qui nous permettent de détecter et d'éviter les injustices dans les procédures de recrutement. Pour y parvenir, nous avons besoin de CV réels avec lesquels nous testons la manière dont de telles injustices se glissent dans les algorithmes de recommandation. En nous basant sur ces CV réels, nous créons des CV artificiels à l'aide d'un logiciel et développons ainsi des méthodes de lutte contre la discrimination.

Entre juin 2023 et mai 2024, nous avons lancé une campagne de don de données à cet effet. 1100 personnes nous ont fait don de leur CV anonymisé, un grand merci!

Ces partenaires participent au projet FINDHR:

This article is part of a project that has received funding from the European Union's Horizon Europe research and innovation program under grant agreement No 101070212. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union. Neither the European Union nor the granting authority can be held responsible for them.

This work is supported by the Swiss State Secretariat for Education, Research and Innovation (SERI) under contract number 22.00151.

AlgorithmNews CH - abonne-toi maintenant à notre newsletter !