Recherche

Centres de données en Suisse: peut-on générer du contenu sans limites? Le développement de l’infrastructure numérique freine la transition énergétique.

EKZ, le distributeur d’électricité de la région de Zurich, est très sollicité: six des neuf sous-stations d’EKZ, dont la construction aura été étalée entre 2014 et 2030, serviront principalement à satisfaire la demande en électricité des nouveaux centres de données. À Volketswil, un centre de données de 100 mégawatts doit être mis en service en 2028. Sa consommation d’électricité sera presque équivalente à celle d’un cinquième de la ville de Zurich. Le développement de la numérisation conduit à l’extension des infrastructures et la mise en œuvre à grande échelle de l’intelligence artificielle et des applications d’IA générative entraîne une très nette augmentation de la consommation de données. Le développement rapide de centres de données toujours plus performants soulève la question des conséquences de cette évolution pour la Suisse et ses ressources.

Centres de donnees
Photo: ihorga

Au cours des dix dernières années, les entreprises suisses ont de plus en plus eu recours aux services cloud de Google, Microsoft ou Amazon. Avec la transition vers des infrastructures basées sur le cloud, de nombreux nouveaux centres de données ont vu le jour. Plusieurs prestataires internationaux spécialisés dans le traitement et le stockage de données pour les entreprises ont identifié la Suisse, avec son réseau de fibre optique bien développé, sa place boursière zurichoise et d’autres centres économiques tels que Zoug et Genève, comme un marché lucratif. Des géants de la tech comme Google, Microsoft ou Amazon se sont installés en Suisse et ont eu recours à ce type de services ou ont construit leurs propres centres de données. Ainsi, les premiers «hyperscalers», c’est-à-dire des centres de données conçus pour répondre à des pics de demande très élevés, ont également vu le jour dans notre pays afin de satisfaire les besoins de quelques clients d’envergure légèrement moindre. À la première vague d’extensions due au transfert des données vers le cloud viennent maintenant s’ajouter les immenses volumes de données générés par les applications d’intelligence artificielle. En novembre 2024, Amazon a annoncé l’implantation de son service d’IA intitulé «Bedrock» dans la région de Zurich. Ce service permet aux entreprises suisses d’exécuter des modèles d’IA générative directement dans le pays, mais également de traiter et de stocker leurs données localement. En juin de cette année, Microsoft a annoncé vouloir investir au total plus de 400 millions de francs dans le marché suisse. Quelque 330 millions seront investis dans l’extension de leurs centres de données, le reste sera consacré au développement et à l’entraînement de l’IA.

Des infrastructures d’une dimension inédite

Plus de dix constructions et extensions de centres de données devraient être achevées au cours des trois prochaines années en Suisse. Pour une transmission rapide des données, les centres de données sont construits à une distance géographique aussi faible que possible les uns des autres. Ils doivent cependant être suffisamment éloignés les uns des autres pour assurer la continuité des activités de l’entreprise au cas où l’un des centres viendrait à tomber en panne. Ce principe de construction explique, en tout cas en partie, la concentration de projets autour de Zurich.

Une tendance se dégage clairement: les centres de données n’augmentent pas seulement leur superficie, mais surtout leur capacité de performance. À proximité de l’aéroport de Zurich, par exemple, se trouve le centre de données ZUR1, d’une puissance de cinq mégawatts (MW), de l’ancien opérateur néerlandais Interxion. En 2020, l’entreprise a fusionné avec le groupe américain Digital Realty, ce qui a donné naissance aux centres de données ZUR2 et ZUR3. D’ici 2028, encore un autre centre de données devrait voir le jour. Au total, le campus atteindra une puissance d’environ 55 MW. À titre de comparaison, la centrale hydroélectrique d’Eglisau-Glattfelden dispose d’une capacité de 43 MW. Elle couvre les besoins en électricité de près de 70 000 ménages.

Un autre grand fournisseur américain est présent dans la région: Vantage Data Centers. Il exploite depuis 2020, dans le quartier Neuhegi de Winterthour, un centre de données qui doit progressivement être étendu jusqu’à atteindre une capacité de 40 MW. À Glattfelden, un imposant centre de données offre déjà 36 MW. Et à Volketswil, le plus grand projet de centre de données de Suisse est en cours de planification. Presque tous ces nouveaux centres sont gérés par des fournisseurs internationaux, dont les clients incluent des hyperscalers, des fournisseurs de services cloud et des entreprises multinationales.

L’explosion de la demande liée à la numérisation croissante, à l’augmentation des besoins en capacité de cloud et aux nouvelles applications d’IA pour les recommandations personnalisées sur les plateformes de streaming ou les modèles linguistiques complexes nécessite l’entraînement de grands modèles. Ce processus est extrêmement consommateur de calcul et nécessite des processeurs graphiques (GPU) spécialisés. Les centres d’entraînement de ce type se font pour l’instant rares en Suisse. Le superordinateur Alps du CSCS, basé à Lugano, fait figure d’exception. Avec 10 000 GPU, il fait partie des ordinateurs les plus puissants d’Europe. Swisscom dispose d’un NVIDIA SuperPOD, spécialement optimisé pour le calcul haute performance (High Performance Computing, HPC) et les charges de travail en intelligence artificielle (IA). Cette infrastructure est cependant utilisée uniquement pour ajuster et adapter les modèles existants, et non pour entraîner de très grands modèles linguistiques depuis le début. Il est impossible de savoir précisément dans quels centres de données et dans quelle mesure des modèles sont effectivement entraînés en Suisse. Bien que Yves Zischek, Managing Director de Digital Realty Suisse, ait récemment reconnu l’existence de tels entraînements auprès du magazine spécialisé IT Markt, ils semblent jusqu’à présent être plutôt l’exception que la règle.

L’entraînement des grands modèles linguistiques, très consommateurs d’énergie, semble avoir lieu principalement à l’étranger, où l’électricité et les surfaces sont moins chères. Même si Zurich devient de plus en plus un site de recherche sur l’IA, avec des succursales d’OpenAI, d’Anthropic, de Google, d’Apple, de Microsoft et de Nvidia, les émissions et la consommation de ressources liées à l’entraînement se produisent donc encore principalement en dehors de la Suisse.

La deuxième phase du processus d’IA générative, qui est appelée «inférence» et qui consiste à mettre en application un modèle entraîné, devient cependant de plus en plus importante en Suisse. Suite à l’annonce par Amazon Web Services de la mise à disposition du service d’IA «Bedrock» dans la région de Zurich, des modèles de langage tels que Titan d’Amazon et Claude d’Anthropic ont également été mis à disposition localement. Cela signifie que des centres de données supplémentaires devront s’ajouter à ceux déjà existants ou prévus. Dans le centre de données ZUR4, Digital Realty construit tout un étage avec refroidissement par eau pour les charges de travail d’IA, et à Laufenburg, dans le canton d’Argovie, le groupe FlexBase planifie actuellement le premier centre de données spécifique à l’IA de Suisse. Il reste encore à déterminer quelle part les serveurs dédiés à l’IA représenteront réellement. L’exploitant du centre de données de Laufenburg souhaite, selon ses propres déclarations, conditionner ces capacités à l’utilisation de la chaleur résiduelle et à son intégration dans un système de chauffage urbain.

Croissance des centres de données: ressources sous pression

La constante augmentation de la taille des centres de données et de leurs capacités est particulièrement visible dans la région de Zurich. Le campus de Green situé à Dielsdorf devrait, une fois terminé, atteindre une puissance de 35 MW et consommer près de 247 GWh d’électricité par an. Cela correspond à environ neuf pour cent de la consommation annuelle d’électricité de la ville de Zurich, qui a varié entre 2500 et 2700 GWh au cours des quatre dernières années. Le campus de Digital Realty à Rümlang, avec 55 mégawatts, représente près de 15 pour cent de la consommation de cette même ville. Avec les installations existantes de Vantage DC à Winterthour et à Glattfelden, ainsi que le grand projet prévu à Volketswil, la consommation d’électricité des centres de données représentera près de 70 pour cent de celle de la ville de Zurich. Le projet de Volketswil devrait même consommer plus d’électricité que l’ensemble de la ville de Lausanne.

Nous ne savons pas encore précisément de quelle puissance de raccordement le centre de données dédié à l’IA de Laufenburg aura besoin lorsqu’il sera terminé, ni quelle sera sa consommation d’électricité. Cependant, nous savons que les racks de serveurs équipés des dernières puces d’IA consomment autant d’électricité que dix à quinze racks d’un centre de données traditionnel, car les GPU utilisés nécessitent une infrastructure informatique de soutien avec des fonctions de stockage, de réseau, d’énergie et de refroidissement exigeantes.

Il est donc encore difficile d’évaluer, et encore plus de calculer avec précision, quelle influence le développement d’infrastructures d’IA hautement performantes aura sur les futurs besoins énergétiques. Déjà en 2019, plus de cent centres de données, selon une étude de la Haute école de Lucerne commandée par l’Office fédéral de l’énergie, représentaient environ 3,6 pour cent de la consommation d’électricité nationale. Adrian Altenburger, auteur de l’étude et professeur à la Haute école de Lucerne, estime que cette part pourrait atteindre jusqu’à 15 pour cent d’ici 2030.

EKZ (Elektrizitätswerke des Kantons Zürich), l’organisme responsable du réseau de distribution régional de Zurich, ressent également cette pression. Au cours des cinq dernières années, EKZ a reçu plus de 100 demandes de la part d’exploitants de centres de données pour des raccordements au réseau. Certains projets, comme le centre de données de 100 mégawatts prévu à Volketswil, nécessitent de nouvelles sous-stations pour garantir l’alimentation électrique nécessaire. Cependant, les véritables goulets d’étranglement ne se trouvent pas sur le réseau d’EKZ lui-même, mais sur les réseaux en amont d’Axpo et de Swissgrid, auxquels des sous-stations doivent être intégrées.

Selon Axpo, de nouvelles lignes à haute tension vers de nouvelles sous-stations sont nécessaires, et souvent aussi des capacités de transformation supplémentaires et le renforcement du réseau. De telles mesures peuvent prendre jusqu’à quatre ans, voire plus en cas d’opposition aux lignes à haute tension de la part des propriétaires fonciers.

Axpo indique que la planification à long terme de son infrastructure de réseau est inspirée du scénario-cadre 2030/2040 de l’Office fédéral de l’énergie. Dans le contexte de cette planification à long terme, les mesures d’aménagement nécessaires pour continuer à garantir la sécurité du réseau en cas de raccordement de nouveaux centres de données font l’objet d’une évaluation.

Le nombre de demandes de raccordement au réseau reçues par Axpo a aussi nettement augmenté ces dernières années. «L’augmentation du nombre de centres de données et de demandes de raccordement au réseau qui en découlent rend de plus en plus complexe la tâche des exploitants de réseau, qui est de respecter leur obligation de raccordement», déclare Martin Stutz, représentant d’Axpo. Certes, il n’existe pas de risque de goulets d’étranglement, mais le respect de l’obligation de raccordement nécessite une coordination de plus en plus étroite avec les exploitants de réseaux de distribution et Swissgrid.

D’après Swissgrid, nous faisons tout simplement face au plus grand changement de l’histoire du système électrique suisse. Le développement simultané des énergies renouvelables décentralisées et la demande croissante en électricité de la part de grands consommateurs comme les centres de données compliquent considérablement le fonctionnement du réseau en Suisse. Dans son projet «Réseau stratégique 2040», Swissgrid identifie spécifiquement des initiatives telles que les nouvelles sous-stations et le renforcement du réseau 220 et 380 kV, afin de pouvoir absorber des charges supplémentaires. Cependant, la mise en œuvre de telles mesures prend du temps: à elle seule, la procédure d’approbation du plan pour de nouvelles lignes à très haute tension prend au moins six ans. En cas d’opposition, elle pourrait prendre nettement plus de temps. La situation est encore aggravée par des difficultés d’approvisionnement mondiales qui touchent les transformateurs et les systèmes de commutation.

Les exploitants de centres de données insistent néanmoins pour obtenir une mise en œuvre rapide. Wolfgang Zepf, directeur pour la Suisse de Vantage DC, estime dans un article en ligne publié par EKZ que le problème principal réside dans la difficulté à obtenir rapidement un raccordement électrique performant, et non, comme on pourrait le supposer dans un pays aux dimensions réduites comme la Suisse, dans un manque de terrains appropriés.

La construction a généralement lieu sur des parcelles industrielles, qui sont souvent cédées aux exploitants dans le cadre de transactions privées ou de contrats de construction. C’est par exemple le cas à Dielsdorf, où le terrain a été vendu à l’exploitant, ou à Glattfelden, où Vantage DC a obtenu le droit de construire de la part du propriétaire de l’hôtel voisin. De plus en plus de centres de données voient le jour dans des petites communes, qui font désormais face à des charges largement supérieures à celles de leurs propres besoins. Un seul centre consomme autant d'électricité qu'une ville de taille moyenne et influence durablement la planification locale en matière d'énergie et d'infrastructures. Pour les communes, ces augmentations ne sont pas nécessairement associées à des recettes fiscales élevées ni à de nombreux emplois. Vantage DC prévoit d’employer seulement 25 personnes à Glattfelden après la mise en service.

Et qu’en est-il de la chaleur résiduelle produite par les nouveaux centres de données? Dans l’idéal, celle-ci pourrait être utilisée comme source de chaleur pour fournir de l’énergie de chauffage aux quartiers environnants et ainsi soutenir la transition des combustibles fossiles vers des sources de chaleur renouvelables. Dans la pratique, la chaleur résiduelle se situe cependant généralement entre 25 et 35 degrés, ce qui n’est pas suffisamment chaud pour une injection directe dans un réseau de chauffage urbain, qui nécessite en règle générale des températures comprises entre 60 et 90 degrés. La chaleur résiduelle doit donc être traitée avec des pompes à chaleur supplémentaires, ce qui nécessite encore une fois de l’énergie. Si aucun réseau de chauffage urbain ou aucune solution de raccordement pertinente n’existe, des investissements dans les infrastructures deviennent d’autant plus nécessaires: conduites, stockage et pompes à chaleur. Dans le cas du centre de données de Vantage DC à Winterthour, un réseau de chauffage urbain est bien présent, mais il est déjà alimenté par l’installation d’incinération des déchets de Winterthour avec de la chaleur à haute température, entre 120 et 130 degrés. La chaleur résiduelle du centre de données, qui atteint environ 24 degrés, ne peut donc pas être injectée directement dans ce réseau. Elle doit être portée à 70 degrés à l’aide des pompes à chaleur de la nouvelle centrale énergétique de Neuhegi, pour ensuite être injectée dans un réseau de chaleur nouvellement construit.

Si la chaleur résiduelle d’un centre de données peut être utilisée pour approvisionner un système de chauffage communal, cela ressemble au premier abord à un scénario gagnant-gagnant. Cependant, cette nouvelle source de chaleur entraîne une dépendance à un fournisseur privé, qui est soumis à une logique de marché fluctuante. Les centres de données travaillent souvent avec des contrats de location de dix ans, alors que l’infrastructure pour le chauffage urbain est conçue pour plusieurs décennies. La durée effective pendant laquelle la chaleur résiduelle sera disponible, le cas échéant, dépend donc moins des besoins locaux que des évolutions mondiales dans le secteur. Si le centre de données ferme, le système de chauffage ne fonctionne plus.

Selon l’étude de l’Office fédéral de l’énergie (OFEN), environ deux tiers des besoins en électricité d’un centre de données sont consacrés aux calculs, et près d'un tiers sert au refroidissement. L’eau est considérée comme un vecteur énergétique particulièrement efficace: par rapport au refroidissement reposant uniquement sur la ventilation, de grandes quantités de chaleur résiduelle peuvent être évacuées avec beaucoup moins d’électricité. Cependant, cet avantage a un prix. Les systèmes à base d’eau consomment d’importantes quantités de cette précieuse ressource, ce qui représente un problème à un endroit où l’eau potable est déjà rare, par exemple pendant les mois d’été au Tessin.

Avec l’émergence des charges de travail liées à l’IA, le refroidissement par air classique atteint cependant ses limites. Les GPU présentent des densités d’énergie nettement plus élevées que les serveurs traditionnels et nécessitent de nouvelles technologies. Dans le futur centre de données consacré à l’IA de Laufenburg, les serveurs devront être refroidis selon le principe «Direct-on-Chip-Cooling». Le liquide de refroidissement est amené directement sur les puces. Le circuit reste fermé, ce qui signifie que le système ne doit être rempli et traité qu’une seule fois. En règle générale, les charges de travail liées à l’IA sont exécutées dans des centres de données ultramodernes, particulièrement efficaces. Cependant, les gains d’efficacité ne changent rien à la tendance fondamentale: plus le matériel devient performant, plus les besoins énergétiques augmentent. L’augmentation des charges de travail liées à l’IA renforce le besoin en électricité. C’est ce que l’on nomme le «paradoxe de Jevons», une sorte d’effet rebond: au lieu d’entraîner une réduction de la consommation globale, le progrès technologique, qui permet une utilisation plus efficace, conduit finalement à une nouvelle augmentation de la consommation.

La consommation de ressources des centres de données et de l’IA ne se limite pas à l’électricité et à l’eau. L’infrastructure dédiée à l’IA entraîne globalement des coûts matériels considérables: en plus des GPU, des serveurs, des systèmes de refroidissement, du béton pour les bâtiments et de l’eau pour le refroidissement, une grande variété de métaux tels que le cobalt, le cuivre ou le palladium est nécessaire. Ces composants doivent être renouvelés régulièrement, car le matériel atteint plus rapidement ses limites en raison des charges de travail plus intenses de l’IA ou doit être remplacé par les nouvelles générations. La génération de GPU «A100», lancée par Nvidia en 2020, était conçue pour avoir une durée de vie d’environ six ans. Depuis son arrivée sur le marché, deux nouvelles générations de GPU ont déjà vu le jour. Les anciens modèles perdent continuellement en efficacité et en compétitivité. Avec l’IA, ce ne sont donc pas seulement les besoins énergétiques immédiats qui augmentent, mais aussi la demande en matières premières et en processus de fabrication, ce qui est également synonyme d’énormes quantités d’énergie, d’eau et d’émissions.

Un phénomène qui reste souvent abstrait au niveau mondial devient nettement perceptible au niveau local. Partout où de nouveaux centres de données voient le jour, les besoins élevés en matière d’électricité, d’espace et d’eau se heurtent directement aux intérêts des communes et entraînent aujourd’hui, à certains endroits, une opposition.

Opposition locale

À Beringen, dans le canton de Schaffhouse, un centre de données de 36 mégawatts est en cours de construction pour Stack Infrastructure. La procédure d'autorisation elle-même a suscité des discussions animées autour du projet: la demande de permis de construire a été approuvée en seulement trois mois. Cela a été possible parce que les centres de données, contrairement aux routes nationales, aux aéroports, aux grandes centrales électriques ou aux décharges, ne figurent pas dans l’ordonnance relative à l’étude de l’impact sur l’environnement (OEIE) de l’Office fédéral de l’environnement. Alors que pour les grands projets mentionnés ci-dessus, une étude complète de l’impact sur l’environnement est requise, pour les centres de données, un simple permis de construire délivré par la police des constructions suffit. L’utilisation de la chaleur résiduelle a également été critiquée dès le début. Une première étude est parvenue à la conclusion suivante: en raison du manque d’infrastructure, seuls quelque 30 pour cent de la chaleur produite pourrait réellement être utilisée.

Il faut ajouter la consommation d’eau. À l’origine, les exploitants avaient soumis une demande pour 300 000 à 400 000 mètres cubes par an. Après négociations, cette valeur a été fortement réduite, à seulement 55 000 mètres cubes environ, ce qui représente près de 150 000 litres d’eau par jour. À Beringen, ce besoin est couvert par le fournisseur public d’eau potable.

Dans le petit village vaudois de Saint-Triphon, l’installation prévue d’un centre de données a également rencontré une opposition importante. L’installation aurait consommé quelque 60 GWh d’électricité par an, ce qui correspond à la consommation annuelle d’environ 16 000 ménages. Six oppositions ont été formulées contre le projet, notamment par des riverains, l’association Chablair et Pro Natura. Les critiques portaient surtout sur l’énorme consommation d’électricité, l’approvisionnement complexe en eau de refroidissement provenant du Rhône, ainsi que sur les impacts paysagers. Pro Natura a également souligné que l’habitat naturel de nombreuses espèces animales dans la carrière où le projet aurait dû voir le jour aurait été gravement menacé, en particulier celui des hiboux et des amphibiens. L’élu écologiste Alberto Mocchi et 18 autres conseillers cantonaux ont ensuite déposé une interpellation remettant en cause la compatibilité du projet avec la stratégie énergétique au niveau cantonal. Selon Alberto Mocchi, le projet semble être à l’arrêt depuis des mois. Au niveau politique, aucun débat n’a eu lieu depuis décembre 2023.

La situation est très différente à Beringen. Une solution pour l’utilisation de la chaleur résiduelle a été trouvée. Elle sera stockée dans un grand réservoir d’eau souterrain et, si nécessaire, chauffée en hiver à environ 85 degrés à l’aide de pompes à chaleur, puis injectée dans le réseau de chaleur. Cependant, il reste à clarifier les responsabilités pour cette solution dont la facture s’élève à 58 millions de francs.

Parallèlement, le centre de données de Beringen nécessite une révision du plan énergétique du canton de Schaffhouse. Afin d’atténuer les besoins en électricité gigantesques du centre de données, des éoliennes supplémentaires devraient être construites. L’objectif est de maintenir la part de l’énergie éolienne dans la consommation cantonale d’électricité à environ dix pour cent. Paradoxalement, le développement des centres de données contribue certes au développement des énergies renouvelables, qui sont de plus en plus utilisées pour répondre aux besoins énergétiques croissants, mais cette augmentation des besoins en énergie freine globalement la transition énergétique.

Expansion numérique et transition énergétique

Afin de respecter les objectifs climatiques tout en freinant la croissance de la consommation d’électricité des infrastructures numériques, un développement massif des capacités renouvelables serait nécessaire, bien au-delà de ce que prévoit la loi sur l’énergie actuelle. D’ici 2030, près de 2100 GWh d’électricité supplémentaire devraient être produits à partir des énergies renouvelables. La consommation des centres de données pourrait cependant augmenter de plus de 4000 GWh sur la même période. Ainsi, leurs besoins supplémentaires, qui seront en concurrence directe avec les besoins des transports, de l’industrie et du chauffage, seront presque deux fois plus importants que l’augmentation prévue de la production d’électricité issue des énergies renouvelables.

Au vu de l’impact des centres de données sur l’approvisionnement énergétique, il est frappant de constater que ce secteur reste très discret. Il est difficile de comprendre qui loue les surfaces des centres de données, quelles sont les données qu’ils traitent, quels modèles linguistiques sont mis en œuvre, quelle quantité d’énergie les charges de travail de l’IA consomment ou quelle quantité d’eau est nécessaire pour chaque installation. Même la Confédération admet dans le rapport rédigé en réponse au postulat 23.3957 «Intelligence artificielle et sécurité de l’approvisionnement» qu’elle ne sait pas quels modèles d’IA sont exploités en Suisse, et encore moins quelle quantité d’électricité ils consomment.

Le Conseil fédéral reconnaît dans le rapport que l’utilisation de l’IA présente certains risques pour la sécurité de l’approvisionnement, mais considère que les prescriptions légales spécifiques à l’IA dans le secteur de l’énergie sont actuellement prématurées. Il convient tout d’abord d’attendre le projet de consultation prévu concernant la réglementation nationale en matière d’IA. En attendant, la Confédération mise sur l’autorégulation et attend la nouvelle étude de l’OFEN sur la consommation d’électricité des centres de données en Suisse, qui devrait paraître fin 2025.

Conclusion: alors que le secteur croît dans toutes les directions, le développement des énergies renouvelables, la réglementation et le débat sociétal progressent lentement. En cas de statu quo, la croissance numérique menace de freiner la transition énergétique.

AlgorithmNews CH – abonne-toi maintenant à notre newsletter !

Je suis d'accord avec le traitement de mes données et je sais que je peux me désabonner de la newsletter à tout moment.