Von ChatGPT über den virtuellen Assistenten in WhatsApp-, Facebook- und Instagram-Chats bis hin zur neuen Google-Funktion „AI Overview“: Modelle der künstlichen Intelligenz (KI) sind aus unserem Alltag nicht mehr wegzudenken. Ihr Wachstum scheint unaufhaltsam: Allein im April 2025 verzeichnete ChatGPT über 5 Milliarden Anfragen, mehr als doppelt so viele wie im Vorjahr.
Während der Energiebedarf einzelner Interaktionen bescheiden wirkt, führt die Summe von Milliarden von Nutzungen zu einem enormen Gesamteinfluss, der bereits den Energieverbrauch ganzer Länder übersteigt. Forscher der Tsinghua-Universität in Peking schätzen, dass die Energie, die zur Erstellung eines einfachen fünf-sekündigen KI-Videos benötigt wird, ausreicht, um mit einem E-Bike 60 km weit zu fahren. Daher ist es nicht überraschend, dass US-amerikanische Rechenzentren im Jahr 2024 etwa 200 Terawattstunden Strom verbrauchten – das entspricht etwa zwei Dritteln des gesamten Strombedarfs in Italien.
Rasanter Anstieg des Energieverbrauchs
Nach Angaben der Internationalen Energieagentur (IEA) verbrauchen Rechenzentren heute zwischen 1 und 1,5 % des weltweiten Stroms. Dieser Anteil wird mit der Verbreitung von KI voraussichtlich deutlich steigen. Die ressourcenintensivste Phase eines Algorithmus‘ ist das Training, bei dem das System große Mengen komplexer Daten verarbeitet. Aber auch die sogenannte Inferenz — die Nutzung des Modells, um Texte zu generieren, Fragen zu beantworten oder Entscheidungen zu unterstützen — erfordert erhebliche Rechenressourcen. Das Training des OpenAI-Modells GPT-4 kostete etwa 100 Millionen US-Dollar und verbrauchte 50 Gigawattstunden Energie.
Der Energiebedarf wächst rasant: Laut Epoch AI verdoppelt sich die für das Training erforderliche Rechenleistung alle fünf Monate. Das Freiburger Öko-Institut schätzt, dass der weltweite KI-bedingte Stromverbrauch bis 2030 elfmal höher sein wird als 2023. In den USA könnten Rechenzentren am Ende sogar mehr Strom verbrauchen als die gesamte Industrieproduktion von Zement, Stahl und Chemikalien zusammen.
Halbleiterherstellung für KI
Ein weiterer wichtiger Faktor ist die Chipherstellung. Der neue Bericht von Greenpeace East Asia — der erste, der die Emissionen der Herstellung berechnet — zeigt, dass der Stromverbrauch und die Treibhausgasemissionen im Zusammenhang mit der Herstellung von Halbleitern für KI zwischen 2023 und 2024 um über 350 Prozent gestiegen sind. Ostasien, das Zentrum der weltweiten Produktion, trägt die Hauptlast dieses Wachstums und die Energiebereitstellung in Südkorea, Japan und Taiwan basiert sind immer noch größtenteils auf fossilen Brennstoffen.
Neben Strom ist auch Wasser eine für die Kühlung von Rechenzentren entscheidende Ressource. Microsoft benötigt beispielsweise sechs Millionen Kubikmeter Wasser, um die Server von Bing Chat ein Jahr lang am Laufen zu halten — das entspricht 2.400 olympischen Schwimmbecken. In einer Studie der University of California wird geschätzt, dass KI-Operationen bis 2027 weltweit zwischen 4,2 und 6,6 Milliarden Kubikmeter Wasser benötigen werden. Dieser Verbrauch ist vergleichbar mit dem jährlichen Wasserbedarf mehrerer kleiner Länder zusammen.
EU-Richtlinie zur Energieeffizienz
Angesichts der wachsenden Bedeutung und schnellen Expansion dieses Sektors hat die neue europäische Richtlinie zur Energieeffizienz im Jahr 2024 auch strengere Anforderungen an Rechenzentren eingeführt. Die Verordnung schreibt zudem die Transparenz und Berichterstattung über den Verbrauch vor und verlangt von besonders energieintensiven Rechenzentren, zertifizierte Energiemanagementsysteme zu implementieren.
Künstliche Intelligenz ist allgegenwärtig und hat in unzähligen Bereichen bereits einen nicht mehr wegzudenkenden Stellenwert. Allerding nehmen im Hinblick auf die erwarteten Entwicklungen auch die ökologischen Herausforderungen der Digitalisierung ständig zu.






