Explication
L’Intelligence artificielle durable: une contradiction en soi?
L’Intelligence artificielle (IA) constitue-t-elle un moyen de lutte contre la crise climatique ou, au contraire, une atteinte à l’environnement encore plus préjudiciable que les vols en avion? Nous exposons ici la quantité d’énergie que les systèmes algorithmiques consomment réellement, la raison pour laquelle nous devons disposer de mesures plus précises et la manière dont les IA peuvent devenir plus durables.
Les systèmes algorithmiques peuvent être employés de multiples façons: ils sont censés permettre une meilleure consommation des ressources, résoudre des problèmes sociaux complexes, telle que la transition énergétique, créer un système énergétique plus durable ou encore faciliter la recherche de nouveaux matériaux. L’IA est même considérée comme un précieux instrument dans la lutte contre la crise climatique. Toutefois, ces attentes ne tiennent pas compte des émissions colossales de CO2, principales responsables de la crise climatique, qu’engendre la mise en œuvre de l’IA.
En règle générale, la durabilité environnementale vise à préserver la nature afin d’assurer une planète viable pour les générations futures. Cependant, les systèmes d'IA en sont souvent l’antithèse. Les très grands systèmes d'IA, en particulier, ne fonctionnent souvent que sur la base de l'exploitation de ressources. Actuellement, ils bénéficient néanmoins d’un capital de confiance élevé, car la technologie semble être la clé de tous les problèmes. L’IA représente en effet un potentiel sociable considérable, mais son utilisation peut s’accompagner de dangers et de conséquences néfastes.
L’IA en déroute: des dérives irresponsables
Rares sont les informations disponibles sur la consommation énergétique des systèmes d’IA et sur les émissions qu’ils génèrent. Ces lacunes complexifient la recherche de solutions politiques visant à réduire la production de CO2. Il est bien connu que les centres de données (data centers) ainsi que la production et le fonctionnement du matériel informatique, qui constituent l’infrastructure nécessaire au fonctionnement des modèles algorithmiques, contribuent grandement aux émissions globales de dioxyde de carbone. S'y ajoutent encore les émissions engendrées par l’exploitation de ces outils.
Dans le jargon technique, cette phase d’utilisation porte le nom d’«inférence». En général, chaque utilisation ou inférence d’un système algorithmique consomme relativement peu d’énergie. Elle se produit néanmoins très fréquemment. Fin 2022, des chercheur·euse·s travaillant sur l’IA de Facebook ont rédigé un article scientifique qui révèle que des milliards d'inférences étaient conduites chaque jour dans les centres de données de l’entreprise. Entre le début de 2018 et la mi-2019, le nombre de serveurs spécifiquement conçus pour cette fonction y aurait été multiplié par 2,5.
Dans le cas d’une entreprise telle que Facebook, cette quantité d’inférences s’explique par la mise en œuvre d’algorithmes de recommandation et de classification. Ces systèmes sont employés dès que les quelque trois milliards d’utilisateur·rice·s de Facebook, tout autour du globe, consultent la plateforme et parcourent le contenu de leur fil d’activité. La catégorisation d’images, la reconnaissance d’objets inclus dans des photographies ainsi que les services de traduction et de reconnaissance vocale constituent d’autres fonctionnalités typiques qui contribuent au nombre élevé d’inférences engendrées par les plateformes en ligne. Les scientifiques sont parvenus à la conclusion que les émissions produites lors de la phase d’inférence sont probablement bien plus élevées que celles résultant de la phase de développement et d’entraînement des modèles algorithmiques. Les chiffres fournis par Facebook confirment cette hypothèse: dans le cas des systèmes internes, la phase d’inférence entraîne une consommation de ressources qui, selon la nature de l’exploitation, peut se révéler nettement plus importante que celle observée lors de la conception et de l’entraînement.
À lui seul, l’entraînement du modèle de langage BLOOM a émis l’équivalent d’environ 24,7 tonnes de CO2, si l’on ne considère que la consommation énergétique directe. En revanche, le volume d’émissions produites est multiplié par deux lorsque l’estimation prend en compte une part de la fabrication du matériel informatique ou de l’utilisation d’énergie liée à l’exploitation. La phase d’entraînement ne suffit donc pas à déduire la quantité d’émissions générées par les systèmes fondés sur l’IA. Il convient d’effectuer des relevés de manière méthodique, qui s’étendent tout au long du cycle de vie des systèmes, afin de sensibiliser les entreprises, les développeur·euse·s et les chercheur·euse·s et de lancer des mesures politiques ciblées.
BLOOM comprend 175 milliards de paramètres: des valeurs qu’un modèle fondé sur l’autoapprentissage assimile lors du processus d’entraînement, puis sur la base desquelles il produit des résultats. Le nombre de paramètres détermine également le nombre de calculs requis, et donc la consommation énergétique de la puissance de calcul. La consommation énergétique d’un grand modèle linguistique contenant 540 milliards de paramètres, à l’instar du système PaLM lancé par Google en 2022, l’emporte très probablement sur celle de BLOOM. Au cours d’une seule session d’entraînement de PaLM, 271,43 tonnes de CO2 ont été émises dans un centre de données Google en Oklahoma, alimenté à 89% par de l’énergie exempte de carbone. Cette quantité équivaut, à peu de choses près, aux émissions produites par un avion de ligne entièrement rempli lors de 1,5 vol transatlantique. De tels processus sont répétés des milliers de fois.
Il est probable que les chiffres correspondant aux émissions de PaLM représentent, compte tenu de la taille du modèle, un net progrès en termes relatifs. En effet, le centre de recherche associé est axé sur la durabilité et limite ses émissions. La question suivante se pose cependant: pourquoi les avancées en matière de méthodes et de matériel informatique sont-elles uniquement utilisées pour mettre au point des modèles toujours plus grands, plutôt que pour améliorer l’efficacité énergétique de modèles plus petits, bien que déjà importants?
L’IA requiert de la puissance de calcul et ainsi de l’énergie. Repérer des modèles exploitables dans des ensembles de données lors de l’entraînement, puis vérifier durant l'inférence si les prédictions fondées sur ces modèles se réalisent, représentent des tâches très gourmandes en ressources. Ces processus nécessitent un matériel informatique spécifique, hébergé dans des centres de recherches. Les serveurs qui s’y trouvent contiennent des minéraux qui leur sont indispensables, employés dans les batteries et les microprocesseurs. Les personnes qui extraient ces matériaux sont soumises à des conditions de travail abjectes; les déchets électroniques que deviennent un jour les serveurs atterrissent souvent dans des pays d’Asie ou d’Afrique, où la population souffre de leurs retombées environnementales.
Lorsque les serveurs sont en service, l’énergie électrique est transformée en chaleur. Pour éviter leur surchauffe, les appareils doivent être refroidis, un processus généralement effectué à l’aide d’eau. Au cours de de l’entraînement de grands modèles linguistiques tels que GPT-3 et LaMDA, des millions de litres d’eau fraîche servant au refroidissement des centrales électriques et des serveurs destinés à l’IA peuvent s’évaporer. Cette situation est d’autant plus préoccupante que l’eau se fait toujours plus rare, amoindrie par la croissance démographique rapide ou par l’obsolescence d’infrastructures hydrauliques. L'énorme augmentation de la demande en technologies fondées sur l’IA entraîne également une augmentation des besoins en or bleu. Par exemple, entre 2021 et 2022, la consommation d’eau directe de Google a augmenté de 20% et a même doublé dans certaines zones de sécheresse. Durant cette période, la consommation directe d’eau de Microsoft a affiché un bond de 34%. ChatGPT nécessite 500 millilitres d’eau afin de maintenir un dialogue simple, composé de 20 à 50 questions et réponses. Puisque l’agent conversationnel compte plus de 100 millions d’utilisateur·rice·s actif·ve·s, qui ouvrent tous plusieurs dialogues, la consommation d’eau de ChatGPT se révèle vertigineuse. De plus, ces chiffres ne concernent que le mode d’application: l’entraînement de GPT-3 dans les centres de recherche de pointe de Microsoft, situés aux États-Unis, nécessiterait directement 700'000 litres d’eau fraîche, ce qui suffirait à la production de 370 BMW ou de 320 Teslas.
L’UE prend des mesures pour protéger l’environnement: le règlement sur l’IA
Le règlement de l’Union européenne (UE) sur l’IA prévoit de premières étapes clés pour la protection de l’environnement, que le texte reconnaît explicitement comme l’un des biens juridiques à protéger. Des procédures de rapport et de documentation normalisés doivent désormais être mises en place afin de permettre une utilisation efficace des ressources consommées par les modèles fondés sur l’IA. Ces pratiques visent à contribuer à réduire la consommation d’énergie et d’autres ressources des systèmes algorithmiques à haut risque au cours de leur cycle de vie. Elles tendent également à promouvoir le développement de modèles d’IA à usage général («general-purpose AI models», GPAI) efficaces sur le plan énergétique.
Deux ans après l’entrée en vigueur du règlement, la Commission devra présenter un rapport permettant de déterminer si ces nouvelles normes de documentation ont conduit à des progrès s’agissant de l’élaboration de modèles GPAI. Dans son rapport, elle devra évaluer les mesures déjà mises en œuvre et déterminer la nécessité d’autres mesures. Elle devra ensuite remettre un tel document tous les quatre ans.
Les fournisseurs de modèles GPAI, entraînés avec d’importants ensembles de données et donc particulièrement énergivores, doivent, selon les nouvelles dispositions, documenter précisément leur consommation énergétique. Cet aspect avait été complètement négligé dans le premier projet proposé par la Commission, et les organismes de recherche ont revendiqué que la consommation énergétique des modèles d’IA soit rendue transparente. La Commission a maintenant la tâche d’élaborer une méthodologie appropriée permettant d’évaluer la consommation énergétique. Les modèles GPAI qui représentent un risque systémique doivent remplir des conditions plus strictes. Leurs fournisseurs sont tenus, par exemple, de mettre au point en interne des mesures de gestion des risques et des procédures de test. Celles-ci doivent faire l’objet d’une approbation par une autorité spécialement créée à cet effet, afin de s’assurer que les prestataires respectent leurs obligations.
Et qu’en est-il de la Suisse?
En Suisse, des réglementations autour de l’Intelligence artificielle et des algorithmes sont attendues prochainement. Le Conseil fédéral a mandaté le Département fédéral de l’environnement, des transports, de l’énergie et de la communication (DETEC) pour dresser un état des lieux du besoin en matière de régulation. Sur cette base, il déterminera s’il doit enclencher des processus législatifs. Dans sa réponse à l’interpellation 24.3663, le Conseil fédéral explique qu' «actuellement, les effets de l’IA sur la consommation énergétique ne sont pas encore visibles et ne permettent pas de définir des mesures». On ne sait pas si, ni comment, les aspects de durabilité seront pris en compte dans l’état des lieux du Conseil fédéral.
C’est possible: l’IA durable dans la pratique
Dans le cadre de discussions sur l’IA, on entend souvent que les mécanismes de contrôle représentent des freins à l’innovation. Pourtant, pourquoi des normes (de durabilité) sociales et environnementales devraient-elles endiguer le potentiel d’innovation? Pourquoi une utilisation appropriée de l’IA représenterait-elle forcément un obstacle insurmontable? Les moyens techniques pratiques pour mesurer les répercussions des systèmes algorithmiques sur l’environnement et favoriser l’économie de ressources ne manquent pas. Les entreprises peuvent déjà agir durablement sur le plan environnemental: il suffit qu’elles tirent parti des outils existants. Comme première étape, elles pourraient, par exemple, déterminer la durabilité de leurs systèmes algorithmiques à l’aide de notre questionnaire d’auto-évaluation.
La start-up Hugging Face œuvre pour rendre les modèles d’IA plus durables en soutenant les approches open source. Au travers de celles-ci, les modèles peuvent mieux être réutilisés: plutôt qu’être entraînés pour un emploi particulier, ils peuvent être mis en place dans une multitude de contextes. Tous les algorithmes disponibles sur la plateforme de Hugging Face ont bénéficié d’une phase d’entraînement préalable et peuvent être modifiés pour des utilisations spécifiques. Cette approche, grâce à laquelle il n’est pas nécessaire de concevoir à chaque fois des modèles entièrement nouveaux, est plus respectueuse de l’environnement.
Il y a quelques années, il était encore habituel de rassembler le plus de données possible afin d’entraîner des modèles, qui n’étaient toutefois pas librement accessibles. Entretemps, des modèles riches en données ont été mis à disposition après leur phase d’entraînement afin que d’autres personnes puissent les remodeler en fonction de leurs besoins.
Hugging Face a également mis en place une base de données permettant de rechercher de manière ciblée les modèles à faibles émissions. Les informations indiquées ont été estimées à partir de l’entraînement. Souvent, il n’est toutefois pas possible de déterminer la quantité d’émissions générées lors de l’inférence. La plupart des entreprises s’intéressent certes au CO2 produit par l’emploi des systèmes, mais celui-ci dépend de nombreux facteurs, tels que le matériel informatique ou le lieu où sont placés les ordinateurs qui réalisent les processus de calcul. Sans connaître ses facteurs, il est impossible de fournir des chiffres précis sur les émissions, bien que de nombreuses entreprises souhaitent disposer de telles valeurs repères.
Plus l’emploi d’instruments servant à mesurer les émissions se généralisera et plus les résultats seront partagés, plus il deviendra possible d’évaluer les modèles d’IA sur la base de valeurs d’émissions concrètes. Des outils tels que Code Carbon calculent l’empreinte carbone d’un modèle en temps réel. Le programme s’exécute parallèlement au code et estime la quantité d’émissions. Hugging Face a mis sur pied un site qui estime une empreinte carbone à l’aide de données telles que la durée de l’entraînement ou le matériel informatique employé lors de cette phase. Les estimations ne sont pas aussi précises que celles de Code Carbon, mais elles donnent une idée approximative des émissions de CO2 générées.
Dans l’objectif de réduire le besoin en énergie des phases d’entraînement et d’exploitation, une stratégie minimaliste peut être adoptée. Elle se rapporte au volume de données traitées par l’IA, qui vise à être diminué. Lors de son utilisation, le système doit accomplir une tâche de la manière la plus efficace possible. Plus la quantité de données employées pour une même fonction est petite, meilleur se révèle le résultat. Pourtant, lors de la phase d’entraînement, on observe encore trop souvent une tendance à intégrer toutes les données disponibles. Dans les milieux industriels, les données existantes sont souvent très nombreuses, et il n’est pas toujours nécessaire de toutes les utiliser. En effet, passé un certain seuil, seules des améliorations minimes peuvent être apportées. Moins il y a de données à traiter, moins d’énergie est exploitée.
Le matériel informatique devient certes toujours plus efficace. Au cours des trois à quatre dernières années, la puissance de calcul a été multipliée par dix par rapport à la consommation d’énergie. Ce progrès incite cependant les fournisseur·euse·s et les développeur·euse·s de modèles algorithmiques à réaliser toujours plus de processus de calcul, un phénomène nommé «effet rebond». Un maintien de la taille des modèles et de la puissance de calcul nécessaire constituerait une avancée sur le plan de la durabilité, mais ces deux composantes croissent de manière fulgurante. Dans le développement des modèles d’IA, la mentalité «plus c’est grand, mieux c’est» fait foi.
Avant le règlement de l’UE sur l’IA, la question de la mesure des émissions dégagées par les systèmes d’IA était rarement abordée. Cette réalité correspondait également au faible nombre d’outils qui étaient alors disponibles. En raison du manque de données sur les émissions de CO2, les décideur·euse·s politiques n’étaient donc pas en mesure d’exercer la pression nécessaire. Aujourd’hui, de tels instruments existent. Des conditions-cadres au niveau politique, y compris en Suisse, pourraient enfin veiller à ce que les entreprises déterminent la quantité d’émissions générées par leurs produits. Ce serait un premier pas pour garantir une utilisation durable de l’IA.