Communiqué de presse

L’Intelligence artificielle peut discriminer: une large coalition demande au Conseil fédéral d’agir

Dans un appel lancé aujourd'hui par AlgorithmWatch CH, une large coalition de personnalités et d'organisations appelle le Conseil fédéral à prendre des mesures de protection contre la discrimination par les algorithmes et l’Intelligence artificielle. De tels cas de discrimination ont déjà fait la une de journaux internationaux.

Angela Müller
Dr. Angela Müller
Directrice d'AlgorithmWatch CH | Responsable politique & plaidoyer
Estelle Pannatier
Chargée de politique et de plaidoyer

Comme le montrent notamment des articles de The Guardian, Reuters ou SRF, l'utilisation d'algorithmes peut engendrer des discriminations, que ce soit lors de l'attribution d'un emploi, dans le domaine des prestations sociales ou par le biais d'images stéréotypées générés par IA. Afin d'éviter dans la mesure du possible que de tels cas se produisent en Suisse, l'organisation de la société civile AlgorithmWatch CH a lancé un appel au Conseil fédéral: IA-sans-discrimination.ch. L'appel est d’ores et déjà soutenu par plus de 40 organisations et plus de 70 personnalités.

Angela Müller

«La protection contre la discrimination a besoin d'une mise à jour. L'utilisation de l’Intelligence artificielle peut en effet discriminer des personnes sur la base de caractéristiques très diverses. Le Conseil fédéral doit faire de ce défi une priorité des régulations à venir autour de l'IA.»

Angela Müller, Directrice d’AlgorithmWatch CH

L'appel est ouvert dès aujourd'hui à la signature de toutes les personnes intéressées sous la forme d'une pétition.

Parmi les premières personnes signataires figurent des membres du Conseil national et du Conseil des États, du PLR, du Centre, du PEV, des Verts’libéraux, du PS et des Vert-e-s. Des professeur·e·s d'informatique, de droit, de sociologie ou de philosophie de différentes universités suisses ainsi que des expert·e·s en numérique et en diversité se joignent aussi à l'appel. Il est également soutenu par des organisations qui s'engagent en faveur des personnes concernées, comme alliance F et Pro Juventute, des organisations de défense des droits humains et des droits fondamentaux comme Amnesty International Suisse et Notre Droit, ainsi que des organisations de protection des consommateurs et des syndicats. Les présidentes des Commissions fédérales contre le racisme et pour les questions féminines ont également signé l'appel en leur nom propre.

Des personnalités suisses racontent

Afin de sensibiliser au défi que représentent les algorithmes discriminatoires, AlgorithmWatch CH lance également aujourd'hui une vaste campagne sur ce thème et publie entre autres une vidéo avec des personnalités suisses: «Savais-tu, par exemple, que les algorithmes discriminent les personnes sur la seule base de leur genre ?», demande ainsi Patrizia Laeri, entrepreneure et ancienne présentatrice de SRF, face à la caméra. Elle explique que des offres d'emploi sont parfois affichées sur les médias sociaux en fonction de stéréotypes de genre ou que les départements des ressources humaines pourraient par exemple utiliser des systèmes de recrutement basés sur l'IA qui évaluent automatiquement les CV des candidates féminines comme étant moins adéquats. Le Lausannois Sébastien Kessler, membre du comité d'Inclusion Handicap, la Drag Queen Mona Gamie et l'experte en antiracisme Anja Glover montrent dans la vidéo que les algorithmes et l'IA peuvent engendrer des discriminations sur la base de nombreuses caractéristiques.

Le Conseil fédéral décidera en 2025 de la gestion de l’Intelligence artificielle

Le Conseil fédéral a demandé au DETEC de dresser un état des lieux des mesures nécessaires en matière d'IA. Celui-ci devrait être disponible d'ici la fin de l'année. Sur la base de cette analyse, le Conseil fédéral entend lancer des projets de réglementation relatifs à l'IA en 2025.

Estelle Pannatier

«Le large soutien à notre appel montre que la protection contre la discrimination par les algorithmes et l'IA est une préoccupation sociale urgente. Le Conseil fédéral doit désormais agir en conséquence.»

Estelle Pannatier, Chargée de politique & de plaidoyer, AlgorithmWatch CH

L'automne dernier déjà, AlgorithmWatch CH a publié une prise de position sur le sujet. Le travail de l'organisation porte désormais ses fruits. Lors de la session d'été, deux motions ont été déposées au Conseil national avec un large soutien de tous les partis, visant à renforcer la protection contre la discrimination par les algorithmes et l'IA par des mesures légales ainsi que par des analyses d'impact obligatoires. La pression sur le Conseil fédéral vient donc aussi du Parlement. La reconnaissance de la nécessité d'agir et les mesures de protection contre la discrimination qui en découlent constituent un pas important pour que les algorithmes et l'IA puissent réellement profiter à toutes les personnes, et pas uniquement à une minorité.