Ressourcenverbrauch von Artificial Intelligence
Dieser Post versucht einen Realitätsabgleich für den Ausbau von AI Rechenzentren. Es gibt zahlreiche Widersprüche, die den ganzen Hype in Frage Stellen. Es gibt Mangel an Energie, Stromleitungen, Wasser und Metallen, die einen Ausbau in dem geplanten Umfang extrem unwahrscheinlich machen.
Rechenzentren sind Fabriken
Rechenzentren sind gigantische Fabriken, die Rechenleistung, Speicher und Netzwerk für das Internet produzieren.
Das Bild1 zeigt eine Farm von drei Amazon Rechenzentren in der Region US West 2 in Boardman, Oregon.
Oben rechts im Bild ein Umspannwerk, das den Anschluss an das Stromnetz sichert. Auf den Dächern die Schächte zum Abführen der Wärme. Daneben Strassen zur Versorgung. Vor den Gebäuden stehen Dieselgeneratoren und -tanks, die im Falle eines Stromausfalls für 24h die Versorgung sicherstellen können.
Stromverbrauch
Als erstes macht sich der Stromverbrauch bemerkbar, der sehr stark variieren kann. In Deutschland verbraucht ein kleines deutsches Rechenzentrum 12 MW, bis zu 40 MW in Städten sind bereits gebaut. In Städten ergibt sich das Problem, dass die Stromversorgung von neuen Rechenzentren schon ab 4 MW neue Leitungen benötigt und dafür Strassen aufgerissen werden müssen.
Geplant sind in Berlin Rechenzentren mit einem Bedarf von 100 MW2 und in der gesamten in der Region Berlin Brandenburg3 geschätzt 1-2GW.
In den USA finden sich auch bereits Rechenzentrumsfarmen, die 600 MW verbrauchen.
Bedingungen sind immer ein Zugang zum Übertragungsnetz durch eine Umspannstation von 110 KV auf Drehstrom, Zugang zu Wasser für die Kühlung, Anschluss an typischerweise vier Glasfasernetze und an das Transportnetz.
In den verschiedenen Räumen stehen typischerweise tausende von Racks mit Hardware im Werte von knapp 1 M€/Rack, also insgesamt Server im für mehrere Milliarden €.
Für die Sicherung sind immer zwei Zugänge über die Strasse und idealerweise auch ein Zugang über Wasser notwendig, um Nachschub auch in Krisenfällen sicher anzuliefern. Ideal ist in diesem Sinne das NTT Rechenzentrum in Spandau(Google Maps), das auch über eine Kanalanbindung vom Wasser aus beliefert werden kann.
Physische Zugangssperren, die auch LKW bis 20t aufhalten können und eine Absicherung des Eingangsbereichs durch Panzerglas, das bis zu Kalashnikovs standhält und eine Remote Steuerung aus einem weiteren RZ sind Teil des physischen Sicherheitskonzeptes. Das Dach ist im wesentlichen ungesichert.
Aufteilung des Verbrauchs
Dabei teilt sich der Verbrauch4 zu etwa gleichen Teilen von je 43% auf Server und die Stromversorgung und Kühlung auf. Nur 11% gehen in die Speichersysteme und nur 3% in das Netzwerk.
Die meiste Energie ist Abwärme und geht damit verloren. Kühlung kann auf drei verschiedene Arten erfolgen
- Wasserverdunstung
- Immersionskühlung
- Wasserkühlung
Explosionsartiger Anstieg des Energieverbrauchs
Der exponentiell steigende Bedarf an Rechenleistung wurde bis zu Aufkommen von AI durch das Mooresche Gesetz5 aufgefangen. Die Verdopplung der Rechenleistung alle zwei Jahre entsprach, auch aus wirtschaftlichen Gründen, dem Bedarf, ohne den Stromverbrauch massiv zu erhöhen.
Das hat sich erst ab 2012 drastisch geändert, seitdem verdoppelt sich der Bedarf der AI Anwendungen alle 3,4 Monate6. Das entspricht sieben Verdopplungen alle zwei Jahre, von denen, selbst wenn das Mooresche Gesetz weiter gelten würde, einem Faktor von 2⁶=64.
Das kommt einer Explosion des Bedarfs gleich, der von der Energieversorgung und dem Transport nicht gedeckt werden kann. Exponentieller Anstieg7 findet sich am Anfang von Sprengstoffexplosionen, Kernreaktionen, Wachstum von Populationen und Infektionen8.
Der Anstieg wird immer begrenzt durch die Ressourcen, die bei der Explosion aufgebraucht werden.
Es wird deshalb gerade verzweifelt versucht, den Ressourcenhunger der AI zu decken. Dabei sind Grenzen bereits erkennbar
- Geld
- Energie
- Energietransport
- Wasser
- Fläche
- Metalle wie z.B. Kupfer
Geld
Unter diesen Aspekten müssen wir das Programm, 500 Milliarden US-Dollar für die Förderung von AI in als den Versuch bewerten, genügend Kapital für den Ausbau von Rechenzentren zur Verfügung zu stellen. Die Hyperscaler (Amazon, Microsoft, Google, Ali Baba) können diese Summen sicher zur Verfügung stellen und haben keine Problem, Geld im Billionen Bereich (1000 Milliarden) zu mobilisieren.
Energie
Die nächste Grenze, die erreicht werden kann, ist die Bereitstellung von Energie. Strom ist begrenzt durch die Anzahl der Kraftwerke aber auch durch lokale Transportmöglichkeiten.
Das US Electric Power Research Institute hat Vorhersagen gemacht, die zur Grundlage der Gesetzgebung in den USA geworden sind. Der Report Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption9 ist frei zugänglich und diskutiert für die Zukunft mehrere Szenarien von einem Low Growth Szenario mit 3,7% bis zu einem Higher Growth Szenario mit 15% jährlichem Wachstum bis zum Jahr 2030 Dabei sind 1 TWh/y = 114 GW ≅ 1/7 GW, wobei die Einheit TWh/y pro Jahr für Mittelwerte und GW für aktuelle Leistung verwendet wird.
Electric Power Research Institute –EPRI Projections, May 2024
Auswirkungen
Wir sehen hier Prognosen, die eine Verfünffachung des Energiebedarfs der Rechenzentren bedeuten. Verglichen mit dem moderaten Anstieg von 2000-2020, in dem wir im wesentlichen das Anwachsen des E-Commerce seit dem Platzen der Internet Blase sehen, ist das eine völlig neue Situation, auf die die Energieversorgung nicht vorbereitet ist.
In den USA bedeutet das einen Anstieg der Stromlast von 10%, die das an sich schon instabile US Transmission Grid nicht leisten kann. In Irland, das aufgrund seiner günstigen Steuern und seiner laxen Datenschutzgesetze bereits ein sicherer Hafen für alle datenhungrigen Firmen ist, würde das bedeuten, dass der Anteil von 20% des Stromverbrauchs auf 100% ansteigen und keine Energie mehr für die andere Wirtschaft und private Aushalte übrig lassen würde. Die Prognosen für Europa10 sehen ähnlich, aber zeitverzögert aus gegenüber den Vorhersagen aus den USA.
Weil dieser Anstieg offensichtlich unrealistisch ist, schwärmen die Hyperscaler Einrichter von Rechenzentren in den US, aber auch in Europa und der ganzen Welt aus und versuchen Orte zu finden, an denen die Bedingungen zum Bau von Rechenzentren günstig sind.
Bewertung
Der Treiber hinter diesen Entwicklungen ist die Furcht, eine wichtige Entwicklung zu verpassen, die Angst, die Dominanz an China zu verlieren oder sogar die Angst, den Dritten Weltkrieg dadurch zu verlieren. Das ist ein klassisches FOMO (fear of missing out) Szenario, in dem Angst von den AI Firmen geschürt wird, um die eigenen wirtschaftlichen Interessen durchzusetzen. Es wird steht nicht weniger als die wirtschaftliche Führung auf dem Spiel, AI als Dreh- und Angelpunkt für den AI New Deal.
Es muss also Strom her und an die Rechenzentren, und das schnell. Die Lösung mit konventionellen Methoden und den jahrzehntelangen Planungszyklen der Stromwirtschaft scheint zu langsam. Also kommt als Griff nach dem Strohhalm Kernenergie wieder ins Spiel. Weil auch die klassischen Reaktortypen jahrzehntelangen Vorlauf haben wird versucht, eine neue Generation von Kernreaktoren mit kleinerer und sicherer Architektur zu in den Markt zu bringen, Small Modular Reactors, mit Leistungen von 60 bis 300 MW. Aus diesem Grunde lohnt auch ein Check, ob das wirklich eine realistische Option ist.
Kernenergie und Small Modular Reactors
Für die USA ist ein Bedarf von 47GW ermittelt worden. Bloomberg hat sich die Bedingungen für die USA bereits angeschaut11. Insgesamt ergibt sich bereits vor dem 500 Mrd Programm der Trump II Administration ein Bedarf von insgesamt 47GW. Das sind ≈ 150 _Small Modular _Reactors (SMR12) Reaktoren der 300 MW Dimension. Davon gibt es, Stand Anfang 2025 weltweit erst drei Prototypen, zwei in Russland einen in China. Kein einziger steht in den USA oder in Europa. Beim gegenwärtigen Verbrauch von U235 reichen die bekannten Vorräte noch 70 Jahre, bei konsequenter Erschliessung aller vermuteten Lagerstätten 130 Jahre. Wird aber der Stromverbrauch durch die gegenwärtige Kerntechnik gedeckt, können aber auch nach 12 Jahren die Uranvorräte erschöpft sein13.
Hinzu kommt, dass das dafür benötigte Uran meist unter russischer Kontrolle ist.
Mit Blick auf den Zeitplan bis 2030 ist unter realistischen Bedingungen ein Bau so vieler Reaktoren auch bei massivem Abbau der bürokratischen Hindernisse, also aller Sicherheitsmassnahmen, schlicht unrealistisch.
Eine ganze Reihe von Betrachtungen weckt erhebliche Zweifel an der Realisierbarkeit, selbst wenn für einen Augenblick die Kernenergie als
realistische Option gedacht wird14,
insbesondere wenn sich Firmen mit ein neues Geschäftsfeld erschliessen wollen15 sollte auch die Sicherheitshistorie betrachtet werden.
Absurder sind nur die Vorhersagen für den Einsatz von Fusionsenergie. Es existiert bisher kein einziges Kraftwerk auf der Erde. Ein alter Witz unter Physikern besagt, dass das erste Fusionskraftwerk immer erst in 50 Jahren einsatzreif sein wird. Damit können Forschungsmittel beantragt werden und es gibt keinen Zwang, innerhalb einer akademischen Karriere etwas abzuliefern.
Fernfusion 🌟🌟🌟
Unter ökonomischen Gesichtspunkten ist die einzige realistische Alternative, auf Solar- und Windenergie und auf Speicher zu setzen.
Der Preisverfall bei diesen Systemen ist exponentiell pro kWh16. Interessanterweise ist Nuscale17, die mit einem schönen grünen Kernkraftwerk in das Geschäft einsteigen wollte, inzwischen nach einer Insolvenz auf Sonnen- und Windenergie umgestiegen. Die ursprünglichen Pläne mit 77MW Einheiten, davon 4-12 Einheiten pro Kraftwerk haben sich als zu unwirtschaftlich erwiesen17.
Insgesamt sieht der Vergleich Kernenergie zu Erneuerbaren Energien wieder einmal eindeutig aus.
Kernenergie – PV + Wind + Batteries
Thema | Nuklear | Sonne, Wind, Tiden und Batterien |
---|---|---|
Kosten | Explodieren18 | fallend |
Treibstoff | U235 | frei |
Lagerstätten Vorhersage | 12-130 Jahre13 | |
Energie/Einheit | 300 MW | 5 MW |
Kühlung | Wasser, Natrium | keine |
Probleme | radioaktiver Abfall, keine Endlager, Proliferation | einige Tage Dunkelflaute, Recycling der Komponenten |
Lösungen | keine | Übertragungsnetze, lokale Puffer |
Wasser
Der Wasserverbrauch hängt sehr stark von der Kühltechnik, dem Standort und den Jahreszeiten am Ort des Rechenzentrums ab. Der PuE Wert18 wird gerne als Referenz für die Effizienz herangezogen, ist aber bedeutungslos, solange die Auslastung des Rechenzentrums nicht bekannt ist.
$$\text{PUE}=\frac{\text{Insgesamt verbrauchte Energie}}{\text{Für Rechenleistung verbrauchte Energie}}=1+\frac{\text{Nicht für Rechenleistung verbrauchte Energie}}{\text{Für Rechenleistung verbrauchte Energie}}$$Verdunstungskühlung
Für den Energieverbrauch erzielt man die besten Ergebnis durch Verdunstungskühlung. Das ist nur dann eine gute Strategie, wenn Wasser im Überfluss vorhanden ist. In Gegenden mit knappen Wasservorräten verbietet sich diese Methode, weil das Wasser dann nicht mehr wiedergewonnen wird. Typische Werte sind knapp über 1, typisch sind 1,6 und sogar 1,2 wurde schon berichtet. Diese Werte werden gerne zur Werbung eingesetzt, um ein Rechenzentrum als besonders umweltfreundlich darzustellen.
Dabei wir der Wasserverbrauch meist nicht erwähnt. Ein besonders dreistes Beispiel kommt von Google19, in dem Wasser nicht einmal erwähnt wird.
Adiabatische Verdunstungskühlung
Dabei wird durch trockene Luft mit Wasser gekühlt. Das führt zu einer Luftfeuchtigkeit nahe 100%, die die Feuchtigkeit wird durch einen Tauscher entfernt. Die Wasserverdunstung erfolgt bei indirekten Verdunstungskühlern auf der Abluftseite, wodurch die warme Aussenluft gekühlt wird20.
Typische PuE Werte sind hier bei 1,3, dafür wird der Wasserverbrauch reduziert. Mit weiteren Massnahmen wie Kühltürmen kann ein vollständiges Recycling erreicht werden.
Wasserkühlung
Die Die Leistungsdicht pro Serverschrank, pro Rack, wird von bisher typischen 3-6kW durch AI auf 30-100kW erhöht. pro Serverschrank, pro Rack, wird von bisher typischen 3-6kW durch AI auf 30-100kW erhöht. Die dadurch notwendige Kühlung kann nur mit Wasser erreicht werden. Dabei ist ein weiterer Schritt erforderlich, der den PuE Wert typischerweise auf 1,58 anhebt.
Kühlung | PuE |
---|---|
reine Verdunstungskühlung | \( 1,06-1,20 \) |
Adiabatische Indirekte Verdunstungskühlung | \( 1,30 \) |
Wasserkühlung | \( 1,58 \) |
Wasser Bilanz
Die Aufstellung einer Wasserbilanz ist schwierig, weil die benötigte Menge natürlich von der Temperatur, der Luftfeuchtigkeit und der Auslastung der Rechenzentren abhängt. Für eine Abschätzung gehen gehen die meisten Quellen von \(\approx 3\) Liter pro Kilowattstunde aus. Der Bereich geht aber von 1 bis 9 l Wasser pro kWh21.
Kupfer
Kupfer ist der wichtigste Vertreter für Metalle, die in Rechenzentren gebraucht werden. Dabei ist zu berücksichtigen, dass Kupfer für praktisch alle Produkte, die Energie erzeugen, transportieren oder verbrauchen benötigt wird.
Zudem sind die einfachen abbaubaren Vorkommen erschöpft. Der Aufwand für den Abbau hat sich im Vergleich von vor 40 Jahren vervierfacht.
Es wird bisher mit einer Wachstumsrate von 3% pro Jahr gerechnet, das entspricht 1,1 Mio Tonnen im Jahr 203019.
Alle diese zahlen sind mit Vorsicht zu geniessen, da der AI Boom sich noch nicht in diesen Prognosen wiederfindet. Damit ergibt sich eine entsprechend höher skalierte Prognose. Als Richtwert können wir von 27 Tonnen Kupfer pro 1 MW Rechenzentrum ausgehen.
Daumenregeln
Damit kann eine Schätzung auf der Basis des Energiebedarfs abgegeben werden. Tatsächlich sind das aber nur grobe Richtwerte, weil bis heute eine Ökobilanz von Rechenzentren nicht genauer aufgestellt werden kann.
Resource | Unit | Source | Main competition | Impact Blast Radius |
---|---|---|---|---|
Power | 1 MW | power plants | industry, households | earth |
Transmission | power lines | landscape | ||
Copper | 27 t | mining ground | industry, electric cars | indigenous communities in the mining area |
Water | 1000 – 9000 l/h | ground water, rivers | farms, households | local to the datacenter |
Auswirkungen auf die Umwelt
Wir sehen also bei Energie-, Wasser-, Flächen- und Materialverbrauch einen gewaltigen Einfluss auf die Umwelt
Lokale Auswertungen
Energie-, Wasser- und Flächenverbrauch wirken am Ort des Rechenzentrums und konkurrieren mit der lokalen Wirtschaft und dem privaten Verbrauch. Durch die Konkurrenz verteuern sich die verbrauchten Ressourcen für alle anderen Marktteilnehmer und die Privatwirtschaft. Aus diesem Grund versuchen die Betreiber der Rechenzentren lokale Exklusivverträge ab, die ihnen zu günstigen Konditionen den Zugriff auf die Ressourcen garantieren. Alle anderen haben dann das Nachsehen und noch grösser Schwierigkeiten, ihren Bedarf zu decken.
Globale Auswirkungen
Die globalen Auswirkungen treffen vor allem die Menschen in den Minen- und Abbaugebieten22. Durch die Externalisierung23 des Abbaus in andere Länder gibt es keinen oder nur einen geringeren Effekt am Ort des Rechenzentrums selbst. Dieser Effekt ist eine neue Form von Kolonialismus, die als Ausbeutung verstanden werden muss24.
Das Versprechen der Arbeitsplätze
Wenn Arbeitsplätze geschaffen werden sollen, werde Umweltaspekte sehr oft hinten angestellt. Tatsächlich schaffen Rechenzentren kaum Arbeitsplätze. Wie Bloomberg11 harausfand, stehen 468 million Förderung für den Bau von Rechenzentren nur 339 Jobs gegenüber, das sind 1,4 Millionen $ für jeden Arbeitsplatz. In Nebraska wurden die Kosten von Google und Meta einfach an die Anwohner weitergegeben und steigen mit einer Rate von 2,5% bis 3% pro Jahr. Diese Belastungen intensivieren sich vor Ort, weil die Verteilung von Rechenzentren extrem ungleich ist. Sind es in den USA u Chicago, Texas und Virginia ist es in Deutschland die Region Frankfurt am Main, in der EU Irland. Nicht zu unterschätzen ist auch der Landverbrauch, für den die Biden Administration auch Bundesland versprochen hat25.
Natürlich argumentieren die Techkonzerne mit dem enormen Gewinn der Digitalisierung für die Gesellschaft. Tatsächlich gibt es aber bisher keine Produktivitätsgewinne in dem versprochenen Umfang. Nur die Hardwareverkäufer und Beraterfirmen profitieren in grossem Umfang vom AI Boom26. Der Gewinn für die Kunden hat sich noch nicht gezeigt.
Fazit
-
picture credits to Tedder Lizenz CC-BY-SA 4.0 ↩︎
-
Aspen Global Exchange Institute (AGCI): How much energy do data centers really use? ↩︎
-
Wikipedia zum Mooreschen Gesetz ↩︎
-
OpenAI AI and compute ↩︎
-
Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption ↩︎
-
Energy Consumption in Data Centres and Broadband Communication Networks in the EU ↩︎
-
Sam Altman’s Energy ‘New Deal’ Is Good for AI. What About Americans? ↩︎ ↩︎
-
Wikipedia zu Uran Lagerstätten](https://en.wikipedia.org/wiki/Uranium_mining#Primary_sources) ↩︎ ↩︎
-
PG&E: Pacific Gas & Electric Company
PG&E Launches First Commercial Deployment of On-Site Generative AI Solution for the Nuclear Energy Sector at Diablo Canyon
Utility giant PG&E agrees to $45 million settlement related to California’s second-largest wildfire
PG&E fined $1.7 million over 2021 power shutoff lapses ↩︎ -
Empirically grounded technology forecasts and the energy transition, September 2022 ↩︎
-
The Chemical Engineer NuScale cancels first planned SMR nuclear project due to lack of interest ↩︎ ↩︎
-
Uncertainties in estimating production costs of future nuclear technologies: A model-based analysis of small modular reactors ↩︎ ↩︎
-
Google Efficiency ↩︎ ↩︎
-
Wikipedia Indirekte Verdunstungskühlung ↩︎
-
1 MW consumes 26 Million litres a year \(\approx\) 3 l/kWh ↩︎
-
Reporter Brasil Documents link Amazon and Google to companies investigated for illegal gold mining
Tucson: Arizona opinion: Data centers redefine the Copper State
Dan Watch: Impacts of copper mining on people and nature
Monga Bay Renewables won’t save us from climate catastrophe, experts warn; what will?
The Guardian How the rise of copper reveals clean energy’s dark side ↩︎ -
Wikipedia Externer Effekt ↩︎
-
Internet Archiv Kohei Saito: Marx in the Anthrocene - Towards the Idea of Degrowth Communism ↩︎
-
Washington Post: Biden plan would encourage AI data centers on federal lands ↩︎
-
New York Times The A.I. Boom Has an Unlikely Early Winner: Wonky Consultants ↩︎