Recherche

Rechenzentren in der Schweiz: Generieren ohne Grenzen? Wie der Ausbau digitaler Infrastruktur die Energiewende herausfordert.

Die Elektrizitätswerke Zürich (EKZ) sind gefordert: Sechs der neun Unterwerke der EKZ entstehen zwischen 2014 und 2030 - primär, um den Stromhunger von neu entstandenen Rechenzentren zu stillen. In Volketswil soll 2028 ein 100-Megawatt-Rechenzentrum in Betrieb genommen werden. Es wird so viel Strom verbrauchen wie rund ein Fünftel der Stadt Zürich. Die zunehmende Digitalisierung treibt den infrastrukturellen Ausbau voran, und die breite Implementierung Künstlicher Intelligenz sowie generativer KI-Anwendungen (GenAI) führen zu einem deutlich höheren Datenaufkommen. Der rasante Ausbau immer leistungsfähigerer Zentren wirft die Frage auf, welche Folgen diese Entwicklung für die Schweiz und ihre Ressourcen hat.

Innenraum eines Rechenzentrums
Foto: ihorga

In den letzten zehn Jahren nutzen Schweizer Unternehmen immer mehr Cloud-Services von Google, Microsoft oder Amazon. Der Wechsel zu Cloud-basierten Infrastrukturen führte zu einem markanten Anstieg neuer Rechenzentren. Dass die Schweiz mit ihrer ausgebauten Glasfaserinfrastruktur, dem Börsenplatz Zürich und weiteren Wirtschaftszentren wie Zug und Genf ein lukrativer Markt ist, erkannten unterdessen auch internationale Anbieter, die Daten für Unternehmen verarbeiten und speichern. Tech-Giganten wie Google, Microsoft oder Amazon liessen sich in der Schweiz nieder und nahmen diese Dienstleistung in Anspruch oder bauten ihre Zentren gleich selbst. So entstanden auch hierzulande die ersten Hyperscaler, also hochskalierbare Rechenzentren, die auf die Anforderungen einiger weniger grosser Kunden ausgelegt sind. Nach der ersten Expansion durch die Verlagerung der Daten in die Cloud kommen nun die immensen Datenvolumen durch die Anwendungen Künstlicher Intelligenz noch hinzu. Im November 2024 kündigte Amazon an, den KI-Dienst Bedrock auch in der Region Zürich bereitzustellen. Damit können Unternehmen in der Schweiz generative KI-Modelle direkt im Land ausführen sowie ihre Daten lokal verarbeiten und speichern. Im Juni dieses Jahres gab Microsoft bekannt, insgesamt mehr als 400 Millionen Franken in den Schweizer Markt investieren zu wollen. 330 Millionen sollen in den Ausbau ihrer Rechenzentren fliessen, der Rest wird in die Entwicklung und Ausbildung von KI gesteckt.

Neue Dimensionen der Infrastruktur

Über zehn Neu- und Ausbauten von Rechenzentren sollen in den kommenden drei Jahren in der Schweiz fertiggestellt werden. Für die schnelle Datenübertragung werden die Rechenzentren in möglichst geringer geografischer Distanz voneinander gebaut. Zugleich sollen sie jedoch so weit voneinander entfernt sein, dass der Betrieb auch gesichert bleibt, falls eines der Zentren ausfallen sollte. Dieses Bauprinzip erklärt, zumindest teilweise, die Konzentration von Projekten rund um Zürich.

Ein klarer Trend: Rechenzentren wachsen nicht nur in der Fläche, sondern vor allem in ihrer Leistungskapazität. In der Nähe des Flughafens Zürich steht beispielsweise das fünf Megawatt (MW) starke Rechenzentrum ZUR1 des ehemals niederländischen Betreibers Interxion. Im Jahr 2020 fusionierte das Unternehmen mit dem US-Konzern Digital Realty, worauf die Rechenzentren ZUR2 und ZUR3 entstanden. Bis 2028 soll ein weiteres fertiggestellt werden. Zusammen wird der Campus dann eine Leistung von rund 55 MW erreichen. Zum Vergleich: Das Wasserkraftwerk Eglisau-Glattfelden verfügt über eine Kapazität von 43 MW. Es deckt den Strombedarf von etwa 70’000 Haushalten.

Ein weiterer grosser US-Anbieter in der Region ist Vantage Data Centers. Er betreibt seit 2020 ein Rechenzentrum im Winterthurer Neuhegi, das schrittweise bis auf 40 MW ausgebaut werden soll. Auch in Glattfelden steht bereits ein 36 MW starkes Zentrum. Und in Volketswil ist derzeit das mit Abstand grösste Rechenzentrumsprojekt der Schweiz in Planung. Fast alle dieser neuen Zentren werden von internationalen Anbietern betrieben, zu deren Kunden Hyperscaler, Cloud-Anbieter und multinationale Firmen gehören.

Anschlusskapazitäten geplanter Rechenzentren

Der Nachfrageboom aufgrund fortschreitender Digitalisierung, steigendem Bedarf an Cloud-Kapazitäten und neuen KI-Anwendungen für personalisierte Empfehlungen auf Streaming-Plattformen oder komplexe Sprachmodelle erfordert das Training grosser Modelle. Dieser Prozess ist äusserst rechenintensiv und erfordert spezialisierte Grafikprozessoren (GPUs). Solche Trainingszentren sind in der Schweiz bisher selten. Eine Ausnahme ist der Alps-Supercomputer des CSCS in Lugano, der mit 10'000 GPUs zu den leistungsstärksten Rechnern Europas zählt. Die Swisscom verfügt über einen Nvidia-SuperPOD, der speziell für High Performance Computing (HPC) und KI-Workloads optimiert ist. Die Infrastruktur wird jedoch lediglich für das Justieren und Anpassen bestehender Modelle und nicht für das Trainieren riesiger Sprachmodelle von Grund auf genutzt. In welchen Rechenzentren und in welchem Ausmass überhaupt Modelle in der Schweiz trainiert werden, ist weitgehend unbekannt. Obwohl Yves Zischek, Managing ­Director von ​​Digital Realty Schweiz, solche Trainings gegenüber dem Fachmagazin IT Markt kürzlich eingeräumt hat, scheinen sie bislang eher die Ausnahme als die Regel zu sein.

Das energieintensive Training grosser Sprachmodelle findet offenbar vor allem im Ausland statt, wo Strom und Flächen günstiger sind. Obwohl sich Zürich zunehmend zu einem bedeutenden Standort für KI-Forschung entwickelt, mit Niederlassungen von OpenAI, Anthropic, Google, Apple, Microsoft und Nvidia, entstehen die Emissionen und der Ressourcenverbrauch des Trainings somit noch überwiegend ausserhalb der Schweiz.

Die zweite Phase der GenAI, die sogenannte Inferenz, also die Anwendung trainierter Modelle, wird jedoch auch in der Schweiz zunehmend relevant. Mit der Ankündigung von Amazon Web Services, den KI-Dienst Bedrock auch in der Region Zürich verfügbar zu machen, stehen nun auch Sprachmodelle wie Amazon Titan und Anthropic Claude lokal zur Verfügung. Das bedeutet auch, dass die ansässigen oder geplanten Rechenzentren aufstocken müssen. Im Rechenzentrum ZUR4 baut Digital Realty ein ganzes Stockwerk mit Wasserkühlung für KI-Workloads aus, und im aargauischen Laufenburg plant gerade die FlexBase Group das erste spezifische KI-Rechenzentrum der Schweiz. Noch bleibt offen, welchen Anteil «KI-Server» tatsächlich ausmachen werden – die Betreiber aus Laufenburg wollen diese Kapazitäten nach eigener Aussage von der Abwärmenutzung und der Einbindung in die Fernwärme abhängig machen.

Rechenzentren im Wachstum, Ressourcen unter Druck

Dass Rechenzentren immer grösser werden und ihre Kapazitäten stetig steigen, zeigt sich besonders im Raum Zürich. Der Campus von Green in Dielsdorf soll nach seiner Fertigstellung eine Leistung von 35 MW erreichen und damit jährlich rund 247 GWh Strom verbrauchen. Das entspricht rund neun Prozent des jährlichen Stromverbrauchs der Stadt Zürich, der in den letzten vier Jahren zwischen 2’500 und 2’700 GWh lag, während der 55-Megawatt-Campus von Digital Realty in Rümlang sogar rund 15 Prozent entspricht. Zusammen mit den Rechenzentren von Vantage DC in Winterthur und Glattfelden sowie dem geplanten Grossprojekt in Volketswil kommt man so auf einen Stromverbrauch von fast 70 Prozent dessen, was Zürich benötigt. Das Projekt in Volketswil allein dürfte sogar mehr Strom benötigen als die gesamte Stadt Lausanne.

Welche Anschlussleistung das KI-Rechenzentrum in Laufenburg nach Fertigstellung haben wird und wie hoch sein Stromverbrauch sein wird, ist ebenfalls noch unklar. Fest steht jedoch, dass Servergestelle (Racks) mit den neuesten KI-Chips genauso viel Strom verbrauchen wie zehn bis fünfzehn Racks in einem herkömmlichen Rechenzentrum, denn die dabei eingesetzten GPUs benötigen eine unterstützende IT-Infrastruktur mit anspruchsvollen Speicher-, Netzwerk-, Energie- und Kühlungsfunktionen.

Zwar lässt sich noch schwer abschätzen, geschweige denn genau berechnen, welchen Einfluss der Ausbau hochleistungsfähiger KI-Infrastrukturen auf den künftigen Energiebedarf haben wird. Doch schon 2019 beanspruchten die über hundert Rechenzentren laut einer Studie der Hochschule Luzern im Auftrag des Bundesamts für Energie rund 3,6 Prozent des landesweiten Stromverbrauchs. Adrian Altenburger, Studienautor und Professor an der Hochschule Luzern, hat prognostiziert, dass dieser Anteil bis 2030 auf bis zu 15 Prozent steigen könnte.

Auch die Elektrizitätswerke des Kantons Zürich (EKZ), die für das regionale Verteilnetz in Zürich zuständig sind, spüren den Druck. In den letzten fünf Jahren erhielt die EKZ über 100 Anfragen von Rechenzentrumsbetreibern für Netzanschlüsse. Projekte wie das geplante 100-Megawatt-Zentrum in Volketswil erfordern neue Unterwerke, um die nötige Stromversorgung sicherzustellen. Doch die eigentlichen Flaschenhälse liegen nicht im EKZ-Netz selbst, sondern in den vorgelagerten Netzen von Axpo und Swissgrid, in welche die Unterwerke integriert werden müssen.

Gemäss der Axpo sind dort neue Hochspannungsleitungen zu neuen Unterwerken und oft auch zusätzliche Transformationskapazitäten und Netzverstärkungen erforderlich. Solche Massnahmen können ohne Widerstand und Einsprachen der von den Hochspannungsleitungen betroffenen Grundeigentümer vier Jahre und mehr dauern.

Die Axpo verweist darauf, dass sich die langfristige Planung ihrer Netzinfrastruktur am Szenariorahmen 2040 des Bundesamts für Energie orientiert. Im Kontext dieser Langfristplanung wird beurteilt, welche Ausbaumassnahmen nötig sind, um beim Anschluss neuer Rechenzentren weiterhin ein sicheres Netz gewährleisten zu können.

Die Zahl der Netzanschlussgesuche ist auch bei der Axpo in den vergangenen Jahren deutlich gestiegen. «Die Zunahme von Rechenzentren respektive diesbezügliche Netzanschlussanfragen macht die Aufgabe der Netzbetreiber, ihrer Netzanschlusspflicht nachzukommen, zunehmend komplexer», so Martin Stutz von der Axpo. Engpässe drohten zwar nicht, doch die Erfüllung der Anschlusspflicht erfordere eine immer engere Abstimmung mit den Verteilnetzbetreibern und Swissgrid.

Swissgrid spricht von nichts weniger als dem grössten Wandel in der Geschichte des Schweizer Stromsystems. Der gleichzeitige Zubau dezentraler erneuerbarer Energien und der steigende Strombedarf grosser Verbraucher wie Rechenzentren verkomplizieren den Netzbetrieb in der Schweiz erheblich. Im Strategischen Netz 2040 identifiziert Swissgrid gezielt Projekte wie neue Unterwerke und Verstärkungen im 220- und 380-kV-Netz, um zusätzliche Lasten aufnehmen zu können. Doch die Umsetzung solcher Massnahmen ist zeitintensiv: Allein das Plangenehmigungsverfahren für neue Höchstspannungsleitungen benötigt mindestens sechs Jahre, bei Einsprachen deutlich länger. Zusätzlich verschärft wird die Situation durch weltweite Lieferengpässe bei Transformatoren und Schaltanlagen.

Rechenzentrumsbetreiber drängen dennoch auf eine rasche Umsetzung. Wolfgang Zepf, Länderchef der Schweiz von Vantage DC, meint in einem Online-Beitrag der EKZ, das eigentliche Problem bestehe darin, schnell genug einen leistungsfähigen Stromanschluss zu erhalten – und nicht, wie man in der kleinen Schweiz vielleicht vermuten könnte, in einem Mangel an geeignetem Land.

Gebaut wird in der Regel auf Industrieparzellen, die meist durch private Verkäufe oder Baurechtsverträge den Betreibern überlassen werden. So im Fall von Green in Dielsdorf, wo das Grundstück an die Betreiber verkauft wurde, oder in Glattfelden, wo Vantage DC das Baurecht vom Eigentümer des angrenzenden Hotels erhalten konnte. Immer öfter entstehen Rechenzentren in kleineren Gemeinden, die mit weit über den eigenen Bedarf hinausgehenden Lasten konfrontiert sind. Ein einziges Zentrum beansprucht so viel Strom wie eine mittelgrosse Stadt und prägt die lokale Energie- und Infrastrukturplanung nachhaltig. Für die Gemeinden sind diese Zuzüge allerdings nicht unbedingt mit hohen Steuereinnahmen oder vielen Arbeitsplätzen verbunden. Vantage DC plant in Glattfelden nach der Inbetriebnahme lediglich rund 25 Personen zu beschäftigen.

Und was ist mit der Abwärme, die die neuen Rechenzentren erzeugen? Im Idealfall kann diese als Wärmequelle genutzt werden, um umliegende Quartiere mit Heizenergie zu versorgen und so den Wechsel von fossilen auf erneuerbare Wärmequellen zu unterstützen. In der Praxis liegt die Abwärme jedoch meist nur bei 25 bis 35 Grad und ist damit zu kühl für die direkte Einspeisung in ein Fernwärmenetz, das in der Regel Temperaturen von 60 bis 90 Grad benötigt. Sie muss daher mit zusätzlichen Wärmepumpen aufbereitet werden, was wiederum Energie beansprucht. Wenn noch gar kein Fernwärmenetz vorhanden ist oder keine sinnvolle Anschlusslösung besteht, werden erst recht infrastrukturelle Investitionen notwendig: in Leitungen, Speicher und Wärmepumpen. Im Fall des Rechenzentrums von Vantage DC in Winterthur wäre zwar ein Fernwärmenetz vorhanden, doch dieses wird bereits von der Kehrichtverbrennungsanlage Winterthur mit Hochtemperaturwärme von 120 bis 130 Grad gespeist. Die Rechenzentrumsabwärme von rund 24 Grad kann deshalb nicht direkt eingespeist werden, sondern muss über die neu erstellte Energiezentrale Neuhegi mit Wärmepumpen auf 70 Grad erhöht werden – um dann in ein ebenfalls neu gebautes Wärmenetz eingespeist zu werden.

Wenn die Abwärme eines Rechenzentrums für die kommunale Wärmeversorgung genutzt werden kann, sieht das zwar zunächst nach einem Win-Win-Szenario aus. Mit der gewonnenen Wärmequelle entsteht jedoch zugleich eine Abhängigkeit von einem privaten Versorger, der einer dynamischen Marktlogik unterliegt. Rechenzentren arbeiten oft mit Mietverträgen von zehn Jahren, während die Infrastruktur für Fernwärme auf mehrere Jahrzehnte ausgelegt ist. Ob und wie lange die Abwärme tatsächlich verfügbar bleibt, hängt damit weniger von lokalen Bedürfnissen als von globalen Entwicklungen in der Branche ab. Wenn das Rechenzentrum dicht macht, droht die Heizung kalt zu bleiben.

Gemäss der Studie des Bundesamts für Energie (BFE) entfallen rund zwei Drittel des Strombedarfs eines Rechenzentrums auf die Rechenleistungen selbst, während etwa ein Drittel für die Kühlung benötigt wird. Wasser gilt dabei als besonders effizienter Energieträger: Im Vergleich zu reiner Luftkühlung lassen sich grosse Mengen Abwärme mit deutlich weniger Strom abführen. Doch dieser Vorteil hat seinen Preis. Wasserbasierte Systeme verbrauchen beträchtliche Mengen des kostbaren Rohstoffs – ein Problem gerade dort, wo aufbereitetes Trinkwasser ohnehin knapp ist, etwa während der Sommermonate im Tessin.

Mit dem Aufkommen von KI-Workloads stösst die klassische Luftkühlung jedoch an ihre Grenzen. GPUs haben deutlich höhere Energiedichten als herkömmliche Server und erfordern neue Technologien. Im geplanten KI-Rechenzentrum in Laufenburg sollen die Server nach dem Prinzip des Direct-on-Chip-Cooling gekühlt werden. Dabei wird die Kühlflüssigkeit direkt über die Chips geführt. Der Kreislauf bleibt geschlossen, womit das System nur ein einziges Mal befüllt und aufbereitet werden muss. In der Regel werden KI-Workloads in hochmodernen, besonders effizienten Rechenzentren betrieben. Doch Effizienzgewinne ändern nichts am grundsätzlichen Trend: Je leistungsfähiger die Hardware wird, desto mehr steigt der Energiebedarf. Die zunehmende Verbreitung von KI-Workloads verstärkt den Stromhunger zusätzlich. So kommt es zum Jevons-Paradoxon, einer Art von Rebound-Effekt: Anstatt den Gesamtverbrauch zu senken, führt der technologische Fortschritt, der effizientere Nutzung ermöglicht, letztlich zu einem weiteren Anstieg des Verbrauchs.

Der Ressourcenverbrauch von Rechenzentren und KI beschränkt sich indes nicht auf Strom oder Wasser. KI-Infrastruktur verursacht insgesamt einen erheblichen Materialaufwand: Zu den GPUs, Servern, Kühlsystemen, dem Beton für die Gebäude und dem Wasser für die Kühlung kommt eine ganze Palette an Metallen wie Kobalt, Kupfer oder Palladium. Diese Komponenten müssen regelmässig erneuert werden, weil die Hardware durch die intensiveren KI-Workloads schneller an ihre Grenzen stösst oder durch neuere Generationen ersetzt wird. Die GPU-Generation A100, die Nvidia 2020 auf den Markt brachte, ist auf eine Lebensdauer von rund sechs Jahren ausgelegt. In der Zwischenzeit sind jedoch bereits zwei neue GPU-Generationen erschienen. Ältere Modelle verlieren kontinuierlich an Effizienz und Wettbewerbsfähigkeit. KI steigert deshalb nicht nur den laufenden Energiebedarf, sondern auch die Nachfrage nach Rohstoffen und Herstellungsprozessen, die wiederum enorme Mengen an Energie, Wasser und Emissionen verursachen.

Was auf globaler Ebene oft abstrakt bleibt, wird lokal deutlich spürbar. Wo immer neue Rechenzentren entstehen, treffen die hohen Ansprüche an Strom, Fläche und Wasser direkt auf die Gemeinden und führen heutzutage mancherorts zu Widerstand.

Widerstand vor Ort

In Beringen, im Kanton Schaffhausen, entsteht derzeit ein 36-Megawatt-Rechenzentrum von Stack Infrastructure. Allein schon das Bewilligungsverfahren löste hitzige Diskussionen rund um das Projekt aus: Das Baugesuch wurde in nur rund drei Monaten genehmigt. Möglich wurde dies, weil Rechenzentren, anders als Nationalstrassen, Flughäfen, grosse Kraftwerke oder Abfalldeponien in der Verordnung über die Umweltverträglichkeitsprüfung (UVPV) des Bundesamts für Umwelt gar nicht auftauchen. Während für die genannten Grossprojekte eine umfassende Umweltprüfung vorgeschrieben ist, reicht bei Rechenzentren eine einfache Baubewilligung durch die Baupolizei. Auch die Abwärmenutzung stand schon früh in der Kritik. Eine erste Studie kam zum Schluss, dass durch die fehlende Infrastruktur nur rund 30 Prozent der entstehenden Wärme tatsächlich genutzt werden könnten.

Hinzu kommt der Wasserverbrauch. Ursprünglich hatten die Betreiber ein Gesuch für 300’000 bis 400’000 Kubikmeter pro Jahr gestellt. Nach Verhandlungen wurde dieser Wert stark reduziert, auf lediglich noch rund 55’000 Kubikmeter, also etwa 150’000 Liter Wasser pro Tag. Dieser Bedarf soll in Beringen vom öffentlichen Trinkwasserversorger gedeckt werden.

Auch im kleinen Waadtländer Dorf Saint-Triphon stiess ein geplantes Rechenzentrum auf erheblichen Widerstand. Die Anlage hätte rund 60 GWh Strom pro Jahr verbraucht, was dem Jahresverbrauch von etwa 16’000 Haushalten entsprochen hätte. Gegen das Projekt gingen sechs Einsprachen ein, unter anderem von Anwohnern, der Association Chablair und Pro Natura. Kritisiert wurden vor allem der enorme Stromverbrauch, das aufwändige Zuführen des Kühlwassers aus der Rhone, sowie die landschaftlichen Auswirkungen. Pro Natura warnte zudem, dass der natürliche Lebensraum vieler Tierarten in dem Steinbruch, wo das Projekt hätte entstehen sollen, akut gefährdet gewesen wäre, etwa der von Uhus und Amphibien. Der Grüne Alberto Mocchi und 18 weitere Kantonsräte reichten daraufhin eine Interpellation ein, die die Vereinbarkeit des Projekts mit der kantonalen Energiestrategie in Frage stellte. Laut Alberto Mocchi scheint das Projekt seit Monaten stillzustehen. Auf politischer Ebene hat seit Dezember 2023 keine Debatte mehr stattgefunden.

Anders in Beringen. Dort wurde mittlerweile eine Lösung für die Nutzung der Abwärme gefunden. Sie soll nun in einem grossen unterirdischen Wasserreservoir gespeichert und bei Bedarf im Winter mit Wärmepumpen auf rund 85 Grad erhitzt und ins Fernwärmenetz eingespeist werden. Für die 58 Millionen Franken teure Lösung sind allerdings noch die Zuständigkeiten zu klären.

Gleichzeitig erfordert das Rechenzentrum in Beringen eine Überarbeitung des Energieplans des Kanton Schaffhausens. Um den gigantischen Strombedarf des Rechenzentrums abzufedern, sollen zusätzliche Windkraftanlagen entstehen. Ziel ist es, den Anteil der Windenergie am kantonalen Stromverbrauch bei rund zehn Prozent zu halten. Paradoxerweise trägt der Ausbau von Rechenzentren also einerseits zum Ausbau erneuerbarer Energien bei, weil für den steigenden Energiebedarf zunehmend auch erneuerbare Energien genutzt werden, während gleichzeitig eben jener steigende Energiebedarf die Energiewende selbst tendenziell ausbremst.

Digitale Expansion und die Energiewende

Um die Klimaziele einzuhalten und zugleich den wachsenden Stromhunger der digitalen Infrastruktur abzufedern, wäre ein massiver Ausbau erneuerbarer Kapazitäten nötig – weit über das hinaus, was das heutige Energiegesetz vorsieht. Bis 2030 sollen rund 2’100 GWh zusätzlicher Strom aus erneuerbaren Energien erzeugt werden. Der Verbrauch von Rechenzentren könnte sich im gleichen Zeitraum jedoch um über 4’000 GWh erhöhen. Damit übersteigt ihr Mehrbedarf den geplanten Ausbau beinahe um das Doppelte und steht in direkter Konkurrenz zum Bedarf von Verkehr, Industrie oder Heizung.

Angesichts der Konsequezen, die Rechenzentren für die Energieversorgung haben, ist auffällig, dass die Branche weitgehend unsichtbar bleibt. Wer in den Rechenzentren Flächen mietet, welche Daten dort verarbeitet werden, welche Sprachmodelle laufen, wie viel Energie KI-Workloads beanspruchen oder wie viel Wasser einzelne Anlagen benötigen, ist kaum nachvollziehbar. Selbst der Bund räumt im jüngst veröffentlichten Bericht zum Postulat «Künstliche Intelligenz und Versorgungssicherheit» ein, dass er gar nicht weiss, welche KI-Modelle in der Schweiz überhaupt betrieben werden, geschweige denn, wie viel Strom sie verbrauchen.

Zwar anerkennt der Bundesrat in dem Bericht, dass die Nutzung von KI gewisse Risiken für die Versorgungssicherheit mit sich bringt, hält aber KI-spezifische gesetzliche Vorgaben im Energiesektor derzeit für verfrüht. Zunächst soll die geplante Vernehmlassungsvorlage zur nationalen KI-Regulierung abgewartet werden. Bis dahin setzt der Bund auf Selbstregulierung und wartet zugleich auf die neue BFE-Studie zum Stromverbrauch der Rechenzentren in der Schweiz, die Ende 2025 erscheinen soll.

Fazit: Während die Branche in alle Richtungen wächst, kommen der Ausbau erneuerbarer Energien, die Regulierung und die gesellschaftliche Debatte nur langsam voran. Wenn das so bleibt, droht die digitale Expansion, die Energiewende auszubremsen.

AlgorithmNews CH – abonniere jetzt unseren Newsletter!

Ich bin mit der Verarbeitung meiner Daten einverstanden und weiss, dass ich den Newsletter jederzeit abbestellen kann.