Publication

Utiliser l’IA de manière responsable: notre outil d’analyse d’impact

Les systèmes algorithmiques et basés sur l’IA peuvent avoir des répercussions éthiques sur les personnes. Quiconque les utilise endosse donc une responsabilité particulière. L’outil d’analyse d’impact développé par AlgorithmWatch aide à assumer cette responsabilité et donne les moyens de le faire.

Ces dernières années, nous avons observé ce qui peut se passer lorsque les algorithmes et les systèmes d’IA ne sont pas utilisés de manière responsable: des personnes ont été soupçonnées à tort de fraude aux prestations sociales, ont été discriminées dans leur recherche d’emploi ou ont été jugées non solvables en raison de leur couleur de peau ou de leur identité de genre. Les systèmes algorithmiques, lorsqu’ils sont utilisés de manière irresponsable, mènent donc à des scénarios perdant-perdant. Ils peuvent non seulement porter atteinte aux intérêts et aux droits fondamentaux des personnes concernées, mais ils peuvent également donner des résultats contraires à l’intérêt de l’organisation qui souhaite les utiliser pour résoudre un problème et atteindre certains objectifs.

Des systèmes utilisés de manière responsable, en revanche, ont le potentiel de profiter à toutes et tous. Lorsque les autorités ou les entreprises concernées font preuve de transparence, permettent la surveillance et le contrôle, et assignent des responsabilités, elles prennent des mesures essentielles pour s’assurer qu’un système profite à toutes les parties impliquées, au lieu de leur nuire, que les principes éthiques d’autonomie et de justice sont respectés et que les droits humains fondamentaux sont protégés.

L’outil d’analyse d’impact (Impact Assessment Tool) développé par AlgorithmWatch aide à assumer la responsabilité éthique liée à l’utilisation d’algorithmes et de l’IA. Il aide les organisations à répondre aux questions suivantes à l’aide de deux check-lists, à développer une compréhension commune et à faire preuve de transparence:

1. Filtrage: Quelles conséquences éthiques le système pourrait-il avoir dans le contexte dans lequel il est utilisé?

➡️ Avec ce filtrage, les utilisateur·rice·s peuvent déterminer si une analyse d’impact plus complète doit être réalisée pour le système algorithmique concerné et, le cas échéant, quelles questions doivent être traitées au niveau 2.

2. Rapport de transparence: dans un second temps, les questions identifiées comme pertinentes à l’aide de la check-list de filtrage sont traitées. Il s’agit de en particulier de:

➡️ La compilation de ces réponses donne un rapport de transparence qui explicite les objectifs et les processus, crée une compréhension commune, permet le contrôle et attribue des responsabilités.

3. La transparence – une opportunité, pas une menace: en troisième étape, nous recommandons de rendre le rapport de transparence ainsi obtenu accessible en interne et, si possible, en externe. Cela permet un contrôle interne et externe, garantit le respect des obligations de rendre compte et souligne l’utilisation responsable des algorithmes et de l’IA.

➡️ Lien vers l’outil d’analyse d’impact

AlgorithmWatch met l’outil d’analyse d’impact à disposition gratuitement via le lien ci-dessus. Si tu souhaites bénéficier d’un accompagnement ou si tu as des questions, contacte-nous! Sinon, nous serions également ravis de recevoir ton soutien sous forme de dons.

Dans le cadre d’un projet commun, nous avons combiné la méthode d’analyse d’impact d’AlgorithmWatch avec une méthode d’évaluation par panel développée par Intersections. L’évaluation par panel permet d’identifier et d’impliquer les parties prenantes pertinentes afin de prendre en compte leurs besoins. Cela comprend à la fois les personnes qui sont affectées par les résultats du système et les collaborateur·rice·s qui utilisent le système.

Ce projet a donné naissance à HUMAN, une approche globale qui permet de développer une stratégie d’IA responsable à partir d’un cas d’application concret, ou de tester cette stratégie sur la base d’une application spécifique. 

En tant que composantes de HUMAN, l’analyse d’impact et l’évaluation par panel sont disponibles gratuitement. Si tu souhaites bénéficier de l’accompagnement de spécialistes, contacte Intersections et AlgorithmWatch CH. 
 

➡️ En savoir plus sur le projet HUMAN

Une analyse d’impact est une étape importante vers une utilisation responsable des algorithmes et de l’IA. D’autres éléments sont également nécessaires:

Nos recommandations complètes pour une utilisation des algorithmes et de l’IA qui profite réellement à aux personnes et à la société sont disponibles ici: