Manchmal verliert man irgendwie Dinge aus den Augen. Kennt jede:r, oder? Vor einem Jahr hatte ich hier meinen letzten Beitrag zur „KI“ geschrieben. Damals war die Sache voll im Gange und „KI“ das Hypethema schlechthin. Ein Jahr später scheint es das immer noch zu sein. Kaum etwas hat heute keine „KI“: Smartphone, Fernseher, Brillen etc. Sei es der eingebaute KI-Upscaler im Fernseher, der aus krisseligen 90er-Jahre Serien 4k-Auflösung herauszaubert oder die in die Kameraapps eingebaute KI-Bildersuche mitsamt KI-Erklärung.
Seit letztem Jahr ist der Trend der „KI-fizierung“ nicht abgebrochen. Der Siegeszug von ChatGPT↗ hält weiter an und das obwohl die Konkurrenz nicht schläft. Google hat in seiner Suche den „AI Mode“ eingeführt und rollt unaufhaltsam neue Features↗ dafür aus. Und ich könnte die Liste endlos fortsetzen und würde nie zu einem Ende kommen, denn während ich hier sitze und alles zusammentrage, sind längst neue Apps, Projekte und Plattformen aus dem Boden gesprossen. Die sogenannte „Künstliche Intelligenz“ ist heute bei weitem nicht mehr nur der „intelligente“ Chatbot wie ChatGPT, wobei ChatGPT mit seiner eingebauten Websuche etc. ja auch schon wieder seit Monaten viel mehr ist als nur ein intelligentes Sprachmodell. Und die Konkurrenten Anthropic oder Mistral AI holen eifrig nach↗ oder eilen in manchen Dingen sogar vorne weg. Alles fließt. Konstant ist nur der Wandel.
Ein Blick in den Gartner Hype Cycle↗ zeigt die Fülle und Breite an „KI“ Technologien hinter den Apps und Plattformen. Nicht alle sind gleich ausgereift ‒ dafür steht die Position in dem Hype Cycle. Nach dem „Gipfel der überhöhten Erwartungen“ kommt erst einmal das tiefe „Tal der Desillusionierung“, bevor es auf das „Plateau der Produktivität“ geht. Die Beratungsfirma Gartner sagt, diesen Weg gehen alle neuen Technologien. Generative KI hat es in dieser Analyse erst leicht über den „Gipfel der überhöhten Erwartungen“ hinweg geschafft. Der Weg zur „Produktivität“ kann demzufolge noch ein paar Jahre dauern.
Dazu passt natürlich gut, dass auch manche der großen Tech-Bosse schon das baldige Ende der „KI-Blase“↗ kommen sehen, weil die Produktivität und Wertschöpfung durch die KI Technologien noch auf sich warten lassen. Aber, und das ist denke ich noch interessanter als der sich vermeintlich ankündigende Absturz des Ganzen: Die Tech-Bosse investieren jetzt lieber Milliarden und Aber-Milliarden in eine Technologie, aus der unter Umständen nichts wird, anstatt nicht in eine Technologie zu investieren, von der später eine ganze Menge abhängt und man den Anschluss verloren hat.
Kritische Perspektive
Es ist ungeheuerlich wieviel Geld gerade in den Ausbau von KI-Rechenleistung investiert wird. Laut dem Handelsblatt geht die Citigroup davon aus, dass bis im Jahr 2029 weltweit circa 2,8 Billionen Dollar↗ (2.800 Milliarden) in KI investiert wird. Ein sehr großer Teil davon wird in die Hardwarekosten und den Stromnetzausbau fließen. In dem Zusammenhang wird der Aufbau von 55 Gigawatt zusätzlicher Kraftwerksleistung erwartet. Das sind 55.000.000 Kilowatt! Ein Staubsauger braucht ungefähr 0,9 Kilowatt Leistung bei Vollgas. Das sind also umgerechnet circa 61.111.111 Staubsauger Equivalente! Das ist ein unfassbar hoher UND vor allem konstanter Energieverbrauch. Die Umweltkosten für die Materialien für die zusätzliche Hardware kommen hier natürlich noch dazu.
In den letzten Monaten hat unter anderem Mistral AI eine umfassende Lifecycle Analyse ihres Mistral Large ↗ KI-Modells veröffentlicht. Darin zu lesen: 85,5% der Emissionen und 91% des Wasserverbrauchs (für die Kühlung der Rechenzentren) entstehen beim Training eines solchen Modells. Insgesamt sind das 20,4 ktCO₂e und 281.000 m³ Wasser. Das ist immens! Vor allem für ein Modell, das durch ein „besseres“ Modell aus den nächsten Releasezyklen vermutlich obsolet sein wird.
Google hat für ihre KI cloud auch mal nachgerechnet und eine Abschätzung veröffentlicht↗. Bezogen auf ein durchschnittliches Text-Inferencing, also eine Chatunterhaltung mit Googles Gemini Modell, verbraucht solch eine Anfrage realistisch abgeschätzt: 0,24 Wh Energie, erzeugt 0,03 gCO₂e und 0,26 ml Wasser. Nur mal den Energieverbauch in ein Alltagsverhältnis gebracht: 0,24 Wh Energie lassen eine 4W LED-Birne circa 3,6 Minuten lang leuchten. Das hört sich einmal nach nicht sehr viel an, ist in der Summe von Milliarden Anfragen↗, aber enorm.
Long story short: Die Ökobilanz der KI-Anwendungen mit der benötigten Infrastruktur und den (Umwelt-)Kosten für das Training der KI-Modelle ist desaströs. Selbst wenn es Google mit seiner fortschrittlichen Hardware und seinen Rechenzentren es schafft sehr effizient zu sein. Die vielen vielen Tonnen an CO₂-Emission sind mit keinem nachhaltigen Geschäftsmodell der Welt zu rechtfertigen. Um aber zum Abschluss doch noch einmal kurz auf den Gartner Hype Cycle zurückzukommen: Bei der ganzen Debatte über überhöhte Erwartungen und Kosten vergisst man schnell, dass es bereits KI-Technologien gibt, die sich in ihrem Bereich etabliert haben. So zum Beispiel KI-basierte Bilderkennung und ‒ wir sind auf dem Weg dahin ‒ selbstfahrende Autos.