Communiqué de presse

Le Conseil fédéral toujour plus sous pression sur l’IA

Au nom d'une large coalition, AlgorithmWatch CH a remis ce mardi au Conseil fédéral une pétition sur l’Intelligence artificielle. Quelque 45 organisations appellent le Conseil fédéral à faire de la protection contre la discrimination une priorité des réglementations à venir autour de l'IA. Des parlementaires de six partis soutiennent cette demande et un grand nombre a participé à la remise.

Photo : Manuel Lopez
Angela Müller
Dr. Angela Müller
Directrice d'AlgorithmWatch CH | Responsable politique & plaidoyer

Les personnes doivent être protégées efficacement contre la discrimination par I’Intelligence artificielle (IA) et pouvoir s'y opposer. C'est ce que demande une pétition qui a été remise mardi à la Chancellerie fédérale à Berne. La pétition arrive à point nommé: cet hiver, l’Intelligence artificielle sera l'un des sujets phares qui occuperont la Berne fédérale.

Angela Müller

«Le potentiel de l'IA ne se réalisera que si nous nous attaquons aux dommages concrets qu'elle cause déjà aujourd'hui. Protéger de la discrimination par l'IA s'impose non seulement du point de vue des droits fondamentaux, mais aussi d'un point de vue social, éthique et économique. Car une utilisation mauvaise et injuste de l’IA ne profite à personne. C'est maintenant au Conseil fédéral d'assumer ses responsabilités.»

Angela Müller, Directrice d’AlgorithmWatch CH

Lancé par AlgorithmWatch CH, l'«Appel au Conseil fédéral», comme l'organisation nomme sa pétition, est soutenu par plus de 45 organisations, dont l'UNICEF, Amnesty International, Notre Droit ou la Fédération romande des consommateurs. Dès le lancement de l'appel, plus de 70 personnalités suisses l'ont soutenu. Depuis, celui-ci a été signé par près de 3'000 personnes supplémentaires.

Le monde politique, scientifique et la société civile estiment qu'il faut agir pour protéger contre la discrimination

L'appel à une protection renforcée contre la discrimination par les algorithmes et l'IA est largement soutenu au Parlement fédéral. Des membres du Conseil national et du Conseil des États du PLR, du Centre, du PEV, du Parti Vert’libéral, du PS et des Vert·e·s ont ainsi signé l’appel.

«Des règles claires doivent protéger la démocratie et les citoyens d’un usage dévoyé de l’IA pour n’en conserver que les aspects novateurs et utiles à la société.»

Olivier Feller, conseiller national PLR

Déjà lors de la session d'été, deux motions ont été déposées au Conseil national avec un large soutien de tous les partis, qui veulent renforcer la protection contre la discrimination par les algorithmes et l'IA.

«De tout bords politiques, les parlementaires qui soutiennent mes interventions sont d'accord: nous ne devons pas réglementer des détails techniques. Mais le droit fondamental à la protection contre la discrimination doit être protégé efficacement, en particulier à l'ère des algorithmes et de l'Intelligence artificielle. Et la Confédération doit évaluer les risques lors de l'utilisation de cette technique et les rendre transparents.»

Balthasar Glättli, conseiller national Vert·e·s

Mais la pression sur le Conseil fédéral ne vient pas seulement du Palais fédéral. Ainsi, des professeur·e·s d'informatique et de droit, de sciences politiques ou de communication de différentes universités suisses ainsi que des expert·e·s du numérique et de la diversité soutiennent l'appel. Les présidentes des Commissions fédérales contre le racisme et pour les questions féminines appuient également la demande.

Le Conseil fédéral se prononcera bientôt sur l'utilisation de l’Intelligence artificielle

Dans son texte d'appel, la coalition cite divers exemples de discrimination par des systèmes algorithmiques et d’IA. Entre autres, le «scandale des allocations familiales». Dans ce cas, des milliers de familles néerlandaises ont connu des difficultés existentielles lorsqu'un algorithme mis en place par les autorités leur a demandé à tort, sur la base de critères discriminatoires, de rembourser des allocations de garde d'enfants versées par l'État pendant des années. La coalition menée par AlgorithmWatch CH veut empêcher de tels cas de discrimination algorithmique en Suisse.

Lorsque le Conseil fédéral est interrogé sur sa conception de la gestion des défis liés à l'IA, la réponse est systématiquement la même depuis un certain temps: le Conseil fédéral souhaite décider, sur la base d'un «état des lieux» des approches réglementaires dans le domaine de l'IA, si des mesures sont nécessaires et, si oui, lesquelles. Cet état des lieux de l'IA devrait être disponible d'ici fin 2024. Que l’Intelligence artificielle puisse être discriminatoire est désormais incontesté. Les preuves sont claires.