ChatGPT beeindruckt nicht nur durch seine technologischen Fähigkeiten, sondern auch durch die enormen Kosten, die für seinen Betrieb anfallen. Aber was genau treibt diese Zahlen in die Höhe, und wie schneidet die KI im Vergleich zu anderen digitalen Tools ab?
Ein kostspieliges Kraftpaket?
Eine neue Studie von Bestbrokers zeigt, dass ChatGPT jährlich Stromkosten von rund 140 Millionen US-Dollar verursacht. Dieser hohe Energieverbrauch wird vor allem durch die Beantwortung der täglichen 1 Milliarde Anfragen erzeugt. Das entspricht einem Verbrauch von mehr als einer Terawattstunde pro Jahr – und das ohne die zusätzlichen Kosten für das Training der KI-Modelle.
Wie groß ist der Energiehunger von ChatGPT?
Laut der Untersuchung benötigt eine einzelne ChatGPT-Anfrage 2,9 Wattstunden Strom. Das ist beeindruckende zehnmal mehr als bei einer Google-Suche. Dabei basieren die Berechnungen auf einem Strompreis von durchschnittlich 0,132 US-Dollar pro Kilowattstunde, der in den USA für Unternehmen gilt.
Einnahmen decken die Kosten (noch) nicht
Obwohl die Abonnementeinnahmen von OpenAI beeindruckend klingen – rund 2,86 Milliarden US-Dollar jährlich – reichen sie laut eigenen Angaben nicht aus, um die laufenden Kosten vollständig zu decken. Besonders das aufwendige Training der Modelle, wie etwa ChatGPT-4, schlägt mit zusätzlichen Millionen zu Buche.
Mehr als nur Stromkosten
Interessant bleibt der Vergleich: Die geschätzten Einnahmen aus Abonnements übersteigen die Stromkosten zwar um das Zwanzigfache. Dennoch vermuten die Forscher, dass OpenAI auf eigene Photovoltaikanlagen oder günstigere Stromtarife setzt, um die Kosten zu senken.