Communiqué de presse
Convention du Conseil de l’Europe sur l’IA: pas de passe-droit pour les entreprises et les autorités de sécurité!
La Convention sur l'IA du Conseil de l’Europe doit devenir le premier accord international juridiquement contraignant sur l'Intelligence artificielle. Les négociations finales auront lieu à Strasbourg à partir du 11 mars 2024. Les membres du Conseil de l'Europe (dont la Suisse et les États de l'UE) et les non-membres comme les États-Unis, le Japon ou le Canada seront présents à la table des négociations. AlgorithmWatch et plus de 90 organisations de la société civile demandent aux États négociateurs de réglementer l'utilisation de l'IA par les entreprises et les autorités de sécurité nationale.
Les membres du Conseil de l'Europe à Strasbourg ont signé la Convention européenne des droits de l'homme, qui a été adoptée il y a près de 75 ans. Aujourd'hui, ils sont sur le point de conclure un autre accord international contraignant: la Convention sur l'Intelligence artificielle (IA). Cette convention vise à protéger les droits humains, la démocratie et l'État de droit contre les effets néfastes de l'IA.
Exceptions pour le secteur privé et la «sécurité nationale»
Le projet publié montre toutefois que le traité international de régulation de l'IA pourrait ne pas fixer de règles pour les entreprises technologiques, ou du moins laisser aux États une grande marge de manœuvre pour exempter ces entreprises.
«Cela enverrait un signal dangereux: le premier règlement international sur l'IA pourrait ainsi donner carte blanche aux entreprises pour développer et utiliser l'IA dans leurs propres intérêts. Les États qui négocient doivent s'assurer que l'IA sert les intérêts de l'humanité et non ceux de quelques entreprises, d'autant plus que le Conseil de l'Europe a pour rôle de veiller aux droits humains en Europe.»
Angela Müller, directrice d'AlgorithmWatch CH
En outre, la convention ne sera probablement pas applicable lorsque des États font développer et utilisent l'IA sous le couvert de la «sécurité nationale». Ce terme vague pourrait recouvrir des applications d'IA très différentes: la reconnaissance faciale dans l'espace public, la protection des frontières par l'IA ou le scannage de nos profils sur les médias sociaux. Tous ces domaines d'application exigent la protection de nos droits fondamentaux. Cette protection ne doit pas être annulée via un passe-droit pour la «sécurité nationale».
Plus de 90 organisations de la société civile du monde entier (dont plus d'une douzaine d'organisations suisses) demandent donc dans une lettre ouverte aux États négociateurs de couvrir aussi bien le secteur public que le secteur privé (c'est-à-dire de ne pas prévoir d'exceptions pour les entreprises privées) et de rejeter les exceptions générales au nom de la sécurité nationale.
Le rôle de la Suisse
La Suisse joue un rôle important dans la Convention sur l'IA du Conseil de l'Europe, puisqu'elle préside les négociations. Une analyse des besoins en matière de réglementation de l'IA est par ailleurs en cours en Suisse. Pour cette analyse, le Conseil fédéral entend s'inspirer des décisions du Conseil de l'Europe. La Stratégie de politique extérieure 2024-2027 stipule toutefois: «L’autodétermination démocratique, l'État de droit et le respect des droits de l’homme doivent également être garantis dans l’espace numérique».
«Nous attendons de la Suisse plus qu'une attitude attentiste. Elle doit s'engager à ce que cette convention protège effectivement les droits fondamentaux, même si les systèmes d'IA sont développés et utilisés par des entreprises.»
Estelle Pannatier, chargée de politique et de plaidoyer, AlgorithmWatch CH
Il reste encore un peu de temps
Les décideurs politiques à Strasbourg disposent encore d’un court laps de temps pour corriger ces importantes lacunes et remettre les droits fondamentaux au cœur de la gouvernance européenne de l'IA. Les négociateurs doivent revenir à l’essence de la Convention sur l'IA: protéger les droits humains, la démocratie et l'État de droit. La Suisse doit également prendre ses responsabilités à cet égard.