Projet «HUMAN»
Les humains doivent s’assurer que l’IA soit au service des humains
Lorsque la police tente de calculer la probabilité de récidive des délinquant·e·s à l'aide d'algorithmes, lorsque les employeurs prétrient les candidatures à l'aide de l'IA ou quand un chatbot d’IA rédige des articles de presse : qui est concerné·e par ces contenus, recommandations et décisions générés par des algorithmes ? Et comment les personnes concernées peuvent-elles être impliquées afin de garantir leurs droits et leurs intérêts ?
Projet en cours
Durée du projet: janvier 2024 à juin 2025
Dans le cadre du projet « HUMAN », les deux organisations de la société civile Intersections et AlgorithmWatch CH développent ensemble une boîte à outils permettant d'orienter les analyses d'impact éthique des algorithmes et de l'IA vers les perspectives des personnes concernées. Il ne suffit pas de tester ces systèmes sur le plan technique. Avec HUMAN, nous poursuivons l'objectif de garantir, à l'aide de méthodes applicables dans la pratique, que l'utilisation de systèmes automatisés se fasse dans l'intérêt des personnes concernées.
La première étape consiste à réviser l'outil d’analyse d'impact développé par AlgorithmWatch pour les systèmes décisionnels automatisés. Non seulement les derniers développements et la recherche actuelle y seront intégrés, mais l'outil est également rendu disponible sous forme numérique et plus facile à utiliser dans la pratique. Intersections travaille à l'intégration de diverses perspectives au moyen de panels et d'espaces innovants.
Voici l'état actuel de notre outil d’analyse d'impact (actuellement disponible qu'en allemand). L'outil peut être utilisé librement. Comme il s'agit d'un projet en cours, il sera éventuellement révisé et mis à jour. Si vous souhaitez utiliser l'outil, veuillez consulter les informations sur la protection des données au bas de la page liée ci-dessus.
Dans un deuxième temps, deux partenaires de terrain issus de l'administration publique et des médias testent l'outil révisé dans deux cas d’application réels. Les expériences de ces applications test sont intégrées en permanence dans le développement de l'outil afin de le rendre le plus accessible, pratique et utile possible.
HUMAN repose sur la conviction que les personnes et les institutions qui utilisent des algorithmes et l'IA ont des obligations éthiques. Ils ont la responsabilité – en plus de la politique qui devrait définir le cadre – de veiller à ce que les systèmes soient appliqués dans le respect des droits humains fondamentaux et de nos intérêts collectifs. C'est pourquoi ces personnes et institutions doivent évaluer les différents impacts de leurs systèmes afin d'identifier les risques et de prendre des mesures pour y remédier.
Le projet d’Intersections a débuté en janvier 2024 et se poursuivra jusqu'en juin 2025. Un Advisory Lab conseille le projet sur son contenu.
« HUMAN » est soutenu par la Fondation Mercator Suisse.
Partenaire du projet: