Der massive Energiebedarf von Generativer KI überlastet unser Stromnetz. Die Nachfrage nach leistungsstarken Servern, die das Internet und die Cloud-Infrastruktur unterstützen, war noch nie so hoch. Diese Server stehen nicht irgendwo in der Wolke, sondern sind physisch in riesigen Datenzentren untergebracht, die niemals aufhören können, Social-Media-Inhalte zu streamen, Fotos zu speichern und, neuerdings, datenintensive Anwendungen wie Chatbots zu trainieren und zu betreiben. Diese Anforderungen haben zu einem exponentiellen Anstieg des Energieverbrauchs geführt.
Ein einzelner ChatGPT-Anfrage benötigt nahezu zehnmal so viel Energie wie eine typische Google-Suche und entspricht dem Energieverbrauch einer 5-Watt-LED-Lampe für eine Stunde. Die Generierung eines AI-Bildes kann so viel Energie verbrauchen wie das Laden eines Smartphones. Die Emissionen der Hyperscaler, die Datenzentren für AI-Anwendungen bauen, sind enorm gestiegen. Schätzungen aus dem Jahr 2019 ergaben, dass das Training eines großen Sprachmodells so viel CO2 produziert wie der gesamte Lebenszyklus von fünf benzinbetriebenen Autos. Selbst wenn genügend Energie erzeugt werden kann, ist unser alterndes Stromnetz zunehmend nicht in der Lage, die Last zu bewältigen. In Spitzenzeiten im Sommer könnte es zu Stromausfällen kommen, wenn Datenzentren ihre Last nicht reduzieren.
Die Nachfrage nach Datenzentren steigt jährlich um 15 bis 20% und könnte bis 2030 16% des gesamten US-Stromverbrauchs ausmachen, gegenüber 2,5% vor der Einführung von ChatGPT im Jahr 2022. Diese Entwicklung erfordert massive Investitionen in die Strominfrastruktur. Viele große Tech-Unternehmen, darunter Google und Microsoft, bauen ihre eigenen Datenzentren, was zu einem Anstieg der Emissionen führt. Google's Treibhausgasemissionen stiegen von 2019 bis 2023 um fast 50%, teilweise aufgrund des Energieverbrauchs ihrer Datenzentren, obwohl diese 1,8-mal energieeffizienter sind als typische Datenzentren. Microsofts Emissionen stiegen von 2020 bis 2024 um fast 30%.
Um den Energiebedarf zu decken, werden Datenzentren an Standorten gebaut, an denen die Stromversorgung gesichert ist. Einige Unternehmen experimentieren auch mit der Eigenstromerzeugung vor Ort. OpenAI-CEO Sam Altman hat in Solar-Startups und in Unternehmen investiert, die Mini-Kernreaktoren entwickeln. Microsoft hat einen Vertrag mit Helion für Fusionsenergie ab 2028 unterzeichnet, und Google hat sich mit einem Geothermie-Startup zusammengetan, um Strom aus tiefen Erdschichten zu gewinnen. Auch Vantage, ein führender Anbieter von Rechenzentrumsinfrastrukturen, hat in Virginia ein 100-Megawatt-Erdgaskraftwerk gebaut, um ein dediziertes Datenzentrum zu versorgen, das vollständig unabhängig vom öffentlichen Netz arbeitet.
Neben der Energieerzeugung ist die Übertragung der Energie ein großes Problem. Veraltete Transformatoren sind eine häufige Ursache für Stromausfälle. Lösungen wie kleine Sensoren, die an Transformatoren angebracht werden, können Ausfälle vorhersagen und die Lastverteilung optimieren. In Hochleistungsgebieten wie Nord-Virginia mussten Stromunternehmen neue Verbindungen zu Datenzentren pausieren, um mit der Nachfrage Schritt zu halten.
Kühlung ist ein weiterer kritischer Aspekt. Die Server erzeugen immense Hitze, die durch Luft- oder Wasserkühlung abgeleitet werden muss, um Überhitzung zu vermeiden. Bis 2027 könnte der Wasserbedarf der AI-Kühlung viermal so hoch sein wie der gesamte jährliche Wasserverbrauch Dänemarks. Einige Datenzentren setzen auf alternative Kühlmethoden wie Flüssigkühlung direkt an den Chips. Microsoft hat ein Projekt zur Unterwasserkühlung seiner Server gestoppt, während andere weiterhin nach effizienten Kühllösungen suchen.
Die Lösung der Energie- und Wasserprobleme der AI erfordert umfassende Ansätze, einschließlich effizienterer Hardware. ARM-basierte spezialisierte Prozessoren, die weniger Energie verbrauchen als herkömmliche x86-Kerne, bieten eine vielversprechende Alternative. ARM-Chips sind für ihre Energieeffizienz bekannt und werden zunehmend von Tech-Giganten wie Google, Microsoft, Oracle und Amazon genutzt. Eine Steigerung der Effizienz um 15% könnte die Energieversorgung von Millionen Haushalten sichern.