OpenAI-Chef Sam Altman sorgt mit einer kühnen Vision für Gesprächsstoff: Jede Woche ein Gigawatt an neuer KI-Infrastruktur bauen – klingt fast nach einem Science-Fiction-Projekt, ist aber seine ernstgemeinte Vorstellung. Doch was steckt dahinter?
Altman macht deutlich, dass es nicht primär die KI-Modelle selbst sind, die den Fortschritt bestimmen, sondern die gewaltige Rechenleistung im Hintergrund. In seinem Blog-Beitrag nennt er Beispiele wie die Heilung von Krebs oder personalisierte Nachhilfe für alle Schüler weltweit – beides Szenarien, die seiner Ansicht nach erst mit enormer Power denkbar werden.
Gleichzeitig verweist Altman auf die Herausforderung: Eine „KI-Fabrik“ im Gigawatt-Maßstab sei extrem schwer umzusetzen und brauche Jahre. Doch wer diese Infrastruktur kontrolliert, hat den eigentlichen Burggraben im globalen KI-Wettlauf – und da schaut er vor allem auf China, das in Chips und Energie massiv investiert.
Kritiker mahnen allerdings, dass die aktuellen Milliarden-Investitionen der Tech-Branche auch riskante Schattenseiten haben. Nvidia, Microsoft, Amazon oder Google schaffen durch interne Kreisläufe und exklusive Deals den Eindruck explodierender Nachfrage. Doch für unabhängige Anbieter wird der Einstieg damit immer schwieriger. Manche Experten sehen Parallelen zur Dotcom-Blase: künstliche Nachfrage, Überkapazitäten und mögliche Einbrüche, wenn die Erwartungen nicht erfüllt werden.
Fest steht: KI braucht Strom, Chips und Kapital in bisher unvorstellbarem Ausmaß. Ob dieser Weg wirklich zu medizinischen Durchbrüchen und fairer Bildung führt – oder in eine neue Blase mündet – bleibt offen.