Mehr Hunger, mehr Durst
Wie viel Energie verbrauchen eigentlich die boomenden
Systeme der Künstlichen Intelligenz (KI), insbesondere die großen
Sprachmodelle wie Chat GPT oder Gemini (früher Bard), die bereits
Hunderte Millionen von Benutzern haben? Es ist zwar allgemein bekannt,
dass der Ressourcenbedarf der IT-Branche wegen des KI-Booms enorm
steigt, dass Chat GPT und Co. einen dem New Yorker zufolge
»obszönen« Energiehunger aufweisen, doch Genaueres lässt sich derzeit
kaum ermitteln, da die Konzerne hinter den künstlichen neuronalen Netzen
schlicht keine Angaben zum Strom- und Wasserverbrauch machen. https://jungle.world/artikel/2024/16/kuenstliche-intelligenz-energieverbrauch-klimawandel-mehr-hunger-mehr-durst
Google, Meta, Microsoft und Open AI halten sich bedeckt. Eine diesbezügliche Anfrage des Technikmagazins The Verge im Februar beantwortete nur Microsoft, wo man beteuerte, »Methodologien zur Quantifizierung des Energieverbrauchs« zu entwickeln und an der Verbesserung der Effizienz großer Systeme zu arbeiten. Open AI und Meta hingegen reagierten überhaupt nicht.
Der Strombedarf der KI-Systeme soll bis 2027 weltweit auf bis zu 134 Terawattstunden steigen, was ungefähr dem Verbrauch der Niederlande entspricht.
Das müssen die Titanen des Internetzeitalters, die einen neuen Goldrausch wittern, auch nicht. Die Branche operiert noch immer in einer rechtlichen Grauzone, ähnlich der Phase, als – in Ermangelung rechtlicher Regelungen – faktisch das Internet zwecks Datenakkumulation gescannt wurde, um die KI-Systeme auch anhand urheberrechtlich geschützten Materials zu trainieren. In der EU sollen juristische Vorgaben zur Ermittlung des Ressourcenverbrauchs Anfang 2026 im Rahmen des europäischen AI Act in Kraft treten. In den USA ist erst im Januar ein ähnliches Gesetzesvorhaben in den Kongress eingebracht worden, das die KI-Konzerne verpflichten soll, den »Energiekonsum, Ressourcenverbrauch und weitere Auswirkungen« ihrer neuronalen Netze während des »Lebenszyklus des Systems« offenzulegen.
Da die Branche sich in Schweigen hüllt, ist man auf Schätzungen und externe Untersuchungen angewiesen. Studien von 2022 zufolge war die Informations- und Kommunikationstechnik für 2,1 bis 3,9 Prozent der globalen Treibhausgasemissionen verantwortlich, was in etwa dem Ausstoß des Flugverkehrs entspricht. Hinzu kommt nun der Strombedarf der KI-Systeme, der bis 2027 auf bis zu 134 Terawattstunden steigen soll – was ungefähr dem Verbrauch der Niederlande entspricht. Die Internationale Energieagentur (IEA) publizierte Anfang dieses Jahres ihre Schätzungen über den Energieverbrauch der Krypto- und KI-Branche, die schon 2022 gemeinsam für rund zwei Prozent des globalen Energiekonsums verantwortlich waren, wobei sich dieser Anteil bis 2026 verdoppeln soll.
Wasserbedarf der Kühlung entspricht dem Jahresverbrauch Dänemarks
Hinzu kommt ein hoher Wasserverbrauch, der für die Kühlung der Rechenzentren anfällt. Der jährliche Wasserverbrauch der neuronalen Netze soll bis 2027 auf 6,6 Milliarden Kubikmeter steigen, womit die Wasserentnahme Dänemarks erreicht würde. Bei einem »Gespräch« mit GPT-3, bei dem zehn bis 50 Fragen beantwortet werden, wird circa ein halber Liter Wasser verdampft. Zur Erinnerung: Weltweit haben zwei Milliarden Menschen keinen regelmäßigen Zugang zu sauberem Trinkwasser, 771 Millionen Erdenbürger können nicht mal ihre Grundversorgung zuverlässig abdecken. Um Microsofts GPT-3 mit seinen 175 Milliarden künstlicher Neuronen anhand gigantischer Datenmengen für eine neue Aufgabe zu trainieren, sollen bis zu 700.000 Liter Kühlwasser verdampfen.
Der Stromverbrauch für eine einzige solche »Trainingseinheit« entspricht dem Jahresverbrauch von 130 US-Haushalten. Die Lernphase der großen Sprachmodelle gilt als besonders energieintensiv, doch auch der Alltagsbetrieb, beispielsweise bei Anfragen, ist durch einen hohen Rechen- und Energieaufwand gekennzeichnet. Eine einfache Suchanfrage, die von einem großen Sprachmodell beantwortet wird, verschlingt rund 30mal so viel Energie wie das übliche Googeln. Microsoft hat bereits sein KI-System als einen »Co-Piloten« in seine Suchmaschine Bing integriert. Würde Google etwas Ähnliches bei seiner Suchmaschine mit ihren neun Milliarden täglicher Suchanfragen realisieren, dann wäre der Energieverbrauch Irlands überschritten.
Tatsache ist, dass die großen Sprachmodelle bei vielen Aufgaben schlicht ineffizient sind. Dies gilt nicht nur für Suchanfragen, sondern auch für die altbekannte Spracherkennung, die schon seit Jahren mit Programmen wie Dragon Naturally Speaking auch auf schwächeren Rechnern gut bewältigt wird. Große Sprachmodelle wie das frei verfügbare Whisper von Open AI sind hingegen selbst bei potenten CPUs auf dem heimischen PC aufgrund der langen Rechenzeiten von rund einer Minute schlicht nicht nutzbar. Erst durch Graphikkartenunterstützung werden ähnlich gute Ergebnisse wie bei der klassischen Spracherkennung erzielt – was den Stromverbrauch des Rechners locker verzehnfacht.
Graphikkarten zweckentfremdet
Die KI-Branche hofft, einen Großteil des rapide steigenden Energieverbrauchs durch technische Innovationen und Effizienzsteigerungen kompensieren zu können. Prozessoren und die Graphikkarten des boomenden Herstellers Nvidia, die derzeit vor allem bei KI-Berechnungen Verwendung finden, sind eigentlich für diese Aufgabe nicht vorgesehen, sie werden sozusagen zweckentfremdet. Konzerne wie Nvidia arbeiten daran, ihr »Silicon« immer mehr den Anforderungen großer Sprachmodelle anzupassen, die keine präzisen Berechnungen brauchen, da sie mit Wahrscheinlichkeiten operieren; doch stecken die entsprechenden Konzepte noch in der Phase der Grundlagenforschung.
Die IT-Branche stößt langsam an physikalische Grenzen, da die in Nanometern gemessenen Strukturbreiten ihrer Siliziumchips nicht ad infinitum verkleinert werden können.
Zudem stößt die IT-Branche generell langsam an physikalische Grenzen, da die in Nanometern gemessenen Strukturbreiten ihrer Siliziumchips nicht ad infinitum verkleinert werden können. Je kleiner die Strukturbreite, desto effizienter die Recheneinheit. Schrumpften die Strukturbreiten früher im Jahresrhythmus, so hofft der taiwanesische Hersteller TSMC, bis 2030 mittels gigantischer Investitionen noch eine Fabrik für Ein-Nanometer-Chips errichten zu können. Einen tatsächlichen technologischen Sprung würden erst Quantencomputer ermöglichen, an denen Google und IBM fieberhaft arbeiten, doch steht weiterhin in den Sternen, wann sie realisiert werden oder gar Marktreife erreichen.
Der physikalische Spielraum für Effizienzsteigerungen ist somit begrenzt, was den Energieverbrauch der KI-Industrie mitten in der sich voll entfaltenden Klimakrise explodieren lassen wird. Im März warnte eine Allianz von Umwelt- und Nichtregierungsorganisationen nicht nur vor dem rasch steigenden Energiehunger der neuronalen Netze. Die KI werde den Planeten nicht retten, sondern gigantische Energiemengen verfeuern und eine Flut von »Desinformation über den Klimawandel« generieren, sagte ein Sprecher der NGO Friends of the Earth, die Teil der Koalition Climate Action Against Disinformation ist, dem Guardian.
Das Wachstum der IT-Branche übertrifft deren Effizienzsteigerungen bei weitem. Die Laufzeiten von Kohlekraftwerken in den Vereinigten Staaten seien bereits aufgrund der steigenden Stromnachfrage von Datenzentren verlängert worden, hieß es im Guardian. Die Umweltgruppen kritisierten zudem die Beteuerungen der KI-Industrie, wonach der Einsatz ihrer Produkte zu einer Senkung der Treibhausgasemissionen führen werde. Google behauptete in einem 2023 veröffentlichten Bericht, KI-Einsatz könne den Ausstoß von Treibhausgasen bis 2030 um bis zu zehn Prozent senken. Man solle »diesen Hype nicht glauben«, warnten die Friends of the Earth. Gleichwohl wird die Expansion der KI-Industrie aufgrund des Verwertungszwangs des Kapitals auch in der manifesten Klimakrise wohl weitergehen, sollten ihr nicht von außen Grenzen durch Intervention oder Naturgewalt auferlegt werden.
Keine Kommentare:
Kommentar veröffentlichen