Der Stromverbrauch von ChatGPT bei über 78 Milliarden Nutzeranfragen pro Jahr
Künstliche Intelligenz (KI) hat in den letzten Jahren rasante Fortschritte gemacht, und eine der eindrucksvollsten Entwicklungen ist OpenAIs ChatGPT. Diese bahnbrechende Textgenerierungs-KI hat sich in kürzester Zeit zur am schnellsten wachsenden Verbraucher-Internet-App der Geschichte entwickelt. Innerhalb von nur zwei Monaten nach ihrem Start im Jahr 2022 erreichte sie schätzungsweise 100 Millionen monatliche Nutzer. Doch so beeindruckend die Fähigkeiten von ChatGPT auch sind – die Antwort auf einfache Fragen, das Schreiben ganzer Aufsätze, das Führen menschlicher Gespräche, das Lösen komplexer mathematischer Probleme, das Übersetzen von Texten oder sogar das Schreiben von Code – diese Leistungen erfordern erhebliche Energiemengen. Schätzungen zufolge verbraucht ChatGPT fast zehnmal mehr Energie als eine herkömmliche Google-Suche. In diesem Artikel werfen wir einen detaillierten Blick auf den enormen Strombedarf von ChatGPT, die damit verbundenen Kosten und die weitreichenden Auswirkungen dieser Technologie auf die Energieversorgung.
Die Inferenz: Wie KI Anfragen verarbeitet
Jedes Mal, wenn ein Nutzer eine Frage an ChatGPT stellt, durchläuft diese Anfrage den Inferenzprozess, bei dem das Modell auf die Eingabe reagiert, indem es seine riesigen Parameter durchläuft und eine Antwort generiert. Die genaue Energieanforderung dieses Prozesses hängt von vielen Variablen ab, darunter die Länge der Anfrage, die Anzahl der Nutzer und die Effizienz des Modells. Obwohl diese Informationen oft vertraulich behandelt werden, können wir grobe Schätzungen anstellen, um ein Gefühl für den Energiebedarf zu bekommen.
Nach den Angaben des Electric Power Research Institute (EPRI) benötigt ChatGPT etwa 0,0029 Kilowattstunden (kWh) Strom, um eine einzige Anfrage zu beantworten. Zum Vergleich: Eine typische Google-Suche verbraucht etwa 0,0003 kWh, was bedeutet, dass ChatGPT fast zehnmal mehr Energie pro Anfrage benötigt.
Im November 2023 berichtete Sam Altman, CEO von OpenAI, dass weltweit 100 Millionen Nutzer wöchentlich mit ChatGPT interagieren. Wenn man davon ausgeht, dass jeder Nutzer im Durchschnitt 15 Fragen pro Woche stellt, ergibt dies etwa 1,5 Milliarden Anfragen pro Woche. Das entspricht mehr als 214 Millionen Anfragen täglich, was über eine halbe Million Kilowattstunden Energieverbrauch pro Tag bedeutet. Zum Vergleich: Ein durchschnittlicher US-Haushalt verbraucht etwa 29 kWh Strom pro Tag. Das bedeutet, dass ChatGPT täglich mehr als das 21.602-fache des Stromverbrauchs eines typischen Haushalts benötigt.
Der jährliche Energieverbrauch von ChatGPT
Im Laufe eines Jahres summiert sich der Energieverbrauch von ChatGPT auf beeindruckende 226.821.615 kWh, was ausreicht, um etwa 78 Milliarden Anfragen zu beantworten. Bei einem durchschnittlichen kommerziellen Stromtarif in den USA von 0,131 US-Dollar pro kWh im Juni 2024 belaufen sich die jährlichen Stromkosten auf etwa 29.713.632 US-Dollar, wobei jede Anfrage 0,00038 US-Dollar kostet. Angesichts der stetigen Weiterentwicklung von ChatGPT und der Einführung neuer Funktionen wie der Generierung von Audio und Video könnten diese Zahlen in Zukunft noch weiter ansteigen.
ChatGPTs Energieverbrauch im Vergleich zu Elektrofahrzeugen und Haushalten
Um die gigantische Energiemenge, die ChatGPT jährlich verbraucht, in einen Kontext zu setzen, lohnt sich ein Vergleich mit dem Energieverbrauch von Elektrofahrzeugen (EVs). Laut dem EV-Datenbank verbraucht ein durchschnittliches Elektroauto etwa 0,191 kWh pro Kilometer und kann mit einer vollen Ladung etwa 379 Kilometer zurücklegen. Das bedeutet, dass eine durchschnittliche EV-Batterie etwa 72,4 kWh Energie speichern kann. Wenn man die gesamte Energie, die ChatGPT in einem Jahr verbraucht, durch die Kapazität einer durchschnittlichen EV-Batterie teilt, könnte man damit 3.133.371 Elektrofahrzeuge vollständig aufladen. Das entspricht fast 95 % der 3,3 Millionen Elektroautos, die Ende 2023 auf den Strassen der USA unterwegs waren.
Aus der Perspektive eines Haushalts betrachtet, verbraucht der durchschnittliche US-Haushalt laut der Energy Information Administration (EIA) etwa 10.500 kWh Strom pro Jahr. Das bedeutet, dass die Energie, die ChatGPT jährlich für die Bearbeitung von Anfragen benötigt, ausreichen würde, um 21.602 US-Haushalte ein ganzes Jahr lang mit Strom zu versorgen. Auch wenn dies nur etwa 0,02 % der 131 Millionen Haushalte im Land entspricht, handelt es sich dennoch um eine gewaltige Energiemenge, insbesondere wenn man bedenkt, dass die USA weltweit den dritten Platz in Bezug auf die Anzahl der Haushalte belegen.
Betrachtet man Smartphones, so hat das neueste iPhone 15 beispielsweise eine Batteriekapazität von 12,98 Wattstunden, was einem Energieverbrauch von etwa 4,74 kWh entspricht, wenn es jeden Tag eines Jahres vollständig aufgeladen wird. Vergleicht man dies mit dem jährlichen Energieverbrauch von ChatGPT, so stellt man fest, dass der Chatbot 47,9 Millionen iPhones jeden Tag, ein ganzes Jahr lang, vollständig aufladen könnte. Diese Zahl verdeutlicht die enormen Energiemengen, die für die Generierung von Antworten durch ChatGPT benötigt werden.
Der enorme Energieverbrauch von ChatGPT für die Bearbeitung von Benutzereingaben wird relativiert
Der globale Vergleich: ChatGPTs Energieverbrauch im Ländervergleich
Besonders bemerkenswert ist, dass der jährliche Energieverbrauch von ChatGPT den gesamten Stromverbrauch von zwölf Ländern und Territorien übertrifft, darunter Gibraltar, Grenada, Dominica, Samoa und die Britischen Jungferninseln, die jeweils etwa 200 Millionen kWh pro Jahr verbrauchen, wie die aktuellen Daten der EIA zeigen. Darüber hinaus könnte die Energie, die ChatGPT in einem Jahr zur Beantwortung von Nutzeranfragen verbraucht, ausreichen, um ganz Finnland oder Belgien einen ganzen Tag lang mit Strom zu versorgen. In Irland würde sie ausreichen, um das Land über zwei Tage hinweg mit Strom zu versorgen.
Das Training von Sprachmodellen: Ein weiterer energiereicher Prozess
Nicht nur die Beantwortung von Anfragen durch ChatGPT erfordert enorme Mengen an Energie, sondern auch das Training der zugrunde liegenden grossen Sprachmodelle (LLMs). Während dieser Phase „lernt“ das KI-Modell, indem es grosse Mengen an Daten und Beispielen analysiert. Dieser Prozess kann je nach Datenvolumen und Komplexität des Modells von wenigen Minuten bis zu mehreren Monaten dauern. Während des Trainings laufen die CPUs und GPUs, die elektronischen Chips, die für die Verarbeitung grosser Datensätze entwickelt wurden, ununterbrochen und verbrauchen erhebliche Mengen an Energie.
Zum Beispiel benötigte das Training von OpenAIs GPT-3, das über 175 Milliarden Parameter verfügt, etwa 34 Tage und verbrauchte rund 1.287.000 kWh Strom. Da sich die Modelle weiterentwickeln und immer komplexer werden, steigt auch ihr Energiebedarf. Das Training des GPT-4-Modells, das über 1 Billion Parameter verfügt, verbrauchte in 100 Tagen etwa 62.318.800 kWh Strom – 48-mal mehr als GPT-3.
Die Trainingskosten von ChatGPT
Methodik zur Schätzung des Energieverbrauchs
Um die Anzahl der Anfragen zu schätzen, die ChatGPT jede Woche bearbeitet, hat das Team von BestBrokers zunächst die 100 Millionen wöchentlichen Nutzer berücksichtigt. Wir spekulierten, dass jeder Nutzer dem Chatbot im Durchschnitt 15 Fragen pro Woche stellt. Dabei handelt es sich um eine grobe Schätzung, da zwar einige Nutzer nicht täglich interagieren, andere jedoch möglicherweise Dutzende von Fragen täglich stellen. Daher könnte die tatsächliche Anzahl der Anfragen wesentlich höher sein.
Mit dieser Schätzung in der Hand berechneten wir den wöchentlichen Energieverbrauch von ChatGPT, indem wir die Gesamtzahl der wöchentlichen Anfragen mit dem geschätzten Energieverbrauch pro Anfrage multiplizierten, der laut Electric Power Research Institute (EPRI) bei 0,0029 kWh liegt. Von dort aus extrapolierten wir den Energieverbrauch auf monatlicher und jährlicher Basis. Um die damit verbundenen Kosten des Stromverbrauchs zu ermitteln, wendeten wir den durchschnittlichen kommerziellen Stromtarif in den USA von 0,131 US-Dollar pro kWh an, Stand Juni 2024.
Fazit: Die Zukunft von KI und Energieverbrauch
Die Entwicklung von KI wie ChatGPT bringt beeindruckende technologische Fortschritte mit sich, aber sie geht auch mit erheblichen Energieanforderungen einher. Angesichts der Tatsache, dass ChatGPT mehr Energie verbraucht als Millionen von Haushalten oder sogar ganze Länder, ist es entscheidend, dass die Effizienz dieser Systeme weiter verbessert wird. Nur so kann sichergestellt werden, dass der Nutzen der KI nicht durch ihre Umweltbelastung überschattet wird. Während die Technologie weiterhin fortschreitet und immer komplexere Modelle entwickelt werden, müssen wir gleichzeitig Wege finden, den Energieverbrauch zu optimieren und nachhaltige Praktiken in der KI-Entwicklung zu fördern.
Quellen:
- Electric Power Research Institute (EPRI)
- Energy Information Administration (EIA)
- US Department of Energy
- EV-Datenbank
- BestBrokers Berechnungen und Methodik
- OpenAI Berichte und Aussagen
Dieser Text auf outview.ch wurde von der GHC GmbH - Online-Marketing, Sursee, Schweiz, erstellt und zur Verfügung gestellt. Das Copyright für diesen Text liegt bei der GHC GmbH, Sursee, Schweiz. Die GHC GmbH bietet Dienstleistungen in den Bereichen Copywriting, Content-Erstellung, SEO und mehr an. Bei Interesse an diesem Text oder der Erstellung hochwertiger Inhalte wenden Sie sich bitte an die GHC GmbH in Sursee.
Kommentar hinterlassen zu "Die Energieanforderungen von KI / ChatGPT"