Communiqué de presse

L’Europe régule l’IA en faveur des Big Tech et des partisans de la sécurité dure

L'Europe est sur le point d'adopter deux lois importantes sur l’Intelligence artificielle : le Règlement de l'UE sur l'IA (AI Act) et la Convention du Conseil de l'Europe sur l'IA. Le Conseil fédéral a déjà annoncé qu'il s'en inspirerait pour ses propositions de régulation de l'IA en Suisse. Ces deux lois étaient à l'origine destinées à protéger efficacement les personnes contre les intérêts des Big Tech et l'utilisation abusive des technologies d'IA par les gouvernements. Mais aujourd'hui, les entreprises technologiques et les partisans de la sécurité au sein des gouvernements pourraient finalement l'emporter.

Photo : Conseil de l'Europe

Angela Müller
Dr. Angela Müller
Directrice d'AlgorithmWatch CH | Responsable politique & de plaidoyer
Estelle Pannatier
Estelle Pannatier
Chargée de politique et de plaidoyer

Le Comité sur l'IA du Conseil de l'Europe, réuni cette semaine à Strasbourg, négocie des options qui permettraient aux États de limiter la Convention sur l'IA aux autorités publiques et d'exclure en grande partie les entreprises privées de son champ d'application. La Suisse joue un rôle important dans ce processus, puisqu'elle préside les négociations. Au niveau de l’UE, le compromis sur le règlement sur l'IA (AI Act) ne protège pas suffisamment les personnes en situation précaire contre la surveillance et le contrôle de l'État. Par ailleurs, la version actuelle de l’AI Act prévoit de libérer les entreprises de plusieurs obligations.

Open AI, Google/Alphabet, Microsoft, Amazon, Meta : ces groupes profitent du grand engouement pour l'IA déclenché en novembre 2022 par le lancement de ChatGPT. Peu de temps après, ces mêmes groupes et leurs alliés ont réclamé à cor et à cri des règles juridiques pour le développement et l'utilisation de cette technologie. Ils justifient souvent leurs demandes de régulation de l'IA par des scénarios d'avenir irréalistes, comme l'affirmation selon laquelle l'IA pourrait un jour prendre le contrôle de l'humanité.

Les exceptions sapent l'objectif de la Convention de Strasbourg sur l'IA

Si le fait que les développeurs d’IA aient réclamé un contrôle gouvernemental du développement et de l’utilisation de l’IA puisse de premier abord paraître surprenant, cette ligne d’argumentation pourrait bien s’avérer être une stratégie intelligente et fructueuse. Le Conseil de l'Europe (l'organisation dont les membres ont signé la Convention européenne des droits de l'homme à Strasbourg) est sur le point de conclure une Convention sur l'IA visant à protéger les droits humains, la démocratie et l'État de droit. Une séance de négociation finale est prévue pour la mi-mars. Le projet de Convention publié montre toutefois que le traité international sur la règlementation de l'IA laisserait sous cette forme une grande marge de manœuvre aux États pour faire valoir des exceptions en faveur des groupes technologiques pour le développement et l'utilisation de l'IA.

Les négociations ne concernent pas seulement les États membres du Conseil de l'Europe, les États-Unis y participent également. Or, c'est là que se trouvent la plupart des plus grandes entreprises technologiques du monde. Ce n'est en outre un secret pour personne que le gouvernement américain n'a aucun intérêt à se fâcher avec la Silicon Valley.

« Si la règlementation de l'IA ne nous protège pas de manière fiable contre les risques et les préjudices que le développement et l'utilisation de l'IA par des entreprises privées peuvent entraîner, elle ouvre un blanc-seing aux Big Tech. Ce n'est pas à cela que ressemble une protection efficace de nos droits. »

Angela Müller, directrice d'AlgorithmWatch CH

Dans une lettre ouverte publiée aujourd'hui, et en collaboration avec plus de 30 organisations de la société civile, AlgorithmWatch CH appelle les États négociateurs à s'assurer que les entreprises technologiques ne resteront pas sans contrôle.

Pendant ce temps, à Bruxelles : le Règlement de l'UE sur l'IA

La Règlement de l'Union européenne visant à réguler l'IA, l’AI Act, a déjà une longueur d'avance : il a fait l'objet d'un accord à huis clos et son adoption ne semble plus être qu'une question d'approbation formelle. Bien qu'elle se différencie de la convention sur l'IA en s'appliquant en principe aux secteurs public et privé, les négociateurs de l’AI Act ont également choisi d'inclure une série d’exceptions pour les entreprises technologiques. Des dispositions importantes et des victoires de la société civile dans la loi sur l'IA, telles que l'obligation de réaliser une étude d'impact sur les droits fondamentaux avant d’utiliser une IA à haut risque et d'enregistrer ces utilisations dans une base de données publique, ne s'appliquent pas aux entreprises privées. En outre, les fournisseurs d'IA pourraient contourner les obligations relatives aux systèmes d'IA à haut risque en affirmant simplement que leurs systèmes ne remplissent que des tâches préparatoires ou limitées.

L’AI Act contient des garanties contre les préjudices et l'utilisation abusive des systèmes d'IA qui sont suffisamment importantes pour ne pas être sacrifiées. Cependant, les deux processus règlementaires ont connu la même tendance :

« Les déclarations audacieuses visant à contrôler étroitement les Big Tech ont tendance à se dissoudre au fil des tractations politiques. Les millions d’euros que les Big Tech investissent dans le lobbying auprès des décideurs politiques n’y sont probablement pas pour rien »,

déclare Angela Müller.

Les droits humains sont les grands perdants

La Convention sur l'IA du Conseil de l'Europe et le Règlement de l’UE sur l'IA s’accordent sur un point : ces deux ensembles de règles feront probablement en sorte que la « sécurité nationale » soit un passe-droit pour tous les systèmes d’IA, car ils ne s’appliqueront pas à ce domaine.

Estelle Pannatier

« Les entreprises privées et les responsables de la sécurité des gouvernements ont imposé leurs intérêts dans les deux cadres règlementaires européens de l'IA. C'est tout simplement inacceptable. Les systèmes d'IA peuvent porter atteinte à nos droits et aux intérêts de notre société : ils permettent de sélectionner les messages que nous voyons en ligne, ils choisissent automatiquement les publicités qui nous sont présentées, ils décident des candidat·e·s éligibles pour un poste vacant, ils surveillent les personnes migrantes ou déterminent la fréquence des patrouilles de police dans certaines zones. »

Estelle Pannatier, chargée de politique et de plaidoyer, AlgorithmWatch CH

Une petite fenêtre est encore ouverte

Alors que l’AI Act est déjà bien avancé, les décideurs politiques à Strasbourg disposent encore d’un court laps de temps pour corriger ces importantes lacunes et replacer les droits fondamentaux au cœur de la gouvernance européenne de l'IA, et en particulier, pour placer au cœur de cette gouvernance le mandat sur lequel la Convention est fondée et limitée : protéger les droits humains, la démocratie et l'État de droit. La Suisse doit prendre ses responsabilités dans les négociations sur la Convention du Conseil de l'Europe qu'elle préside.