Altman Kürzlich geteilt Eine Betonzahl für den Energie- und Wasserverbrauch von Chatgpt -Abfragen. Laut seinem Weblog -Beitrag konsumiert jede Anfrage an ChatGPT etwa 0,34 WH -WH -Elektrizität (0,00034 kWh) und etwa 0,000085 Gallonen Wasser. Das Äquivalent zu dem, was eine hocheffiziente Glühbirne in ein paar Minuten und ungefähr ein Fünftel eines Teelöffels verwendet.

Dies ist das erste Mal, dass OpenAI solche Daten öffentlich geteilt hat, und es fügt einen wichtigen Datenpunkt zu laufenden Debatten über die Umweltauswirkungen großer KI -Systeme hinzu. Die Ankündigung löste eine weit verbreitete Diskussion aus – sowohl unterstützend als auch skeptisch. In diesem Beitrag analysiere ich die Behauptung und packte die Reaktionen in den sozialen Medien aus, um die Argumente auf beiden Seiten zu betrachten.

Was stützt die 0,34 Wh -Behauptung?

Schauen wir uns die Argumente an, die der Nummer von Eröffnung Glaubwürdigkeit verleihen.

1. Unabhängige Schätzungen stimmen mit der Nummer von OpenAI überein

Ein wichtiger Grund, warum manche die Zahl glaubwürdig betrachten, ist, dass sie eng mit früheren Schätzungen von Drittanbietern übereinstimmt. Im Jahr 2025 schätzte das Analysis Institute Institute.ai, dass eine einzige Abfrage an GPT-4O ungefähr 0,0003 kWh Energie verbraucht-die eng mit OpenAIs eigene Schätzung übereinstimmen. Dies setzt voraus, dass GPT-4O eine Architektur der Experten mit 100 Milliarden aktiven Parametern und eine typische Reaktionslänge von 500 Token verwendet. Sie berücksichtigen jedoch keine anderen Faktoren als den Energieverbrauch der GPU -Server und umfassen keine Effektivität der Stromverbrauch (PUE), wie es ansonsten üblich ist.

Eine kürzlich akademische Studie von Jehham et al. (2025) Schätzungen zufolge verwendet GPT-4,1-Nano 0,000454 kWh, O3 0,0039 kWh und GPT-4,5 0,030 kWh für lange Eingabeaufforderungen (ungefähr 7.000 Wörter Eingabe und 1.000 Ausgangswörter).

Die Übereinstimmung zwischen den Schätzungen und dem Datenpunkt von OpenAI legt nahe, dass die Abbildung von OpenAI in einem angemessenen Bereich fällt, zumindest wenn man sich nur auf die Part konzentriert, in der das Modell auf eine Eingabeaufforderung reagiert (als „Inferenz“ bezeichnet).

Bild des Autors

2. Die Nummer von OpenAI könnte auf Hardwareebene plausibel sein

Es ist wurde gemeldet Diese OpenAI -Server 1 Milliarde Fragen professional Tag. Betrachten wir die Mathematik, wie Chatgpt diese Anzahl von Fragen professional Tag dienen könnte. Wenn dies zutrifft und die Energie professional Abfrage 0,34 WH beträgt, könnte die gesamte tägliche Energie laut einem etwa 340 Megawattstunden betragen Branchenexperte. Er spekuliert, dass dies bedeuten würde, dass OpenAI ChatGPT mit etwa 3.200 Servern unterstützen könnte (unter der Annahme von NVIDIA DGX A100). Wenn 3.200 Server täglich 1 Milliarde Abfragen abschließen müssen, müsste jeder Server rund 4,5 Eingabeaufforderungen professional Sekunde bearbeiten. Wenn wir annehmen, dass eine Instanz der zugrunde liegenden LLM von Chatgpt auf jedem Server bereitgestellt wird und dass die durchschnittliche Eingabeaufforderung zu 500 Ausgangs -Token (ungefähr 375 Wörter gemäß OpenAIs Faustregel) führt, müssten die Server 2.250 Token professional Sekunde erzeugen. Ist das realistisch?

Stojkovic et al. (2024) konnten einen Durchsatz von 6.000 Token professional Sekunde von LAMA-2–70B auf einem NVIDIA DGX H100-Server mit 8 H100-GPUs erzielen.

Jegham et al. (2025) haben jedoch herausgefunden, dass drei verschiedene OpenAI -Modelle im Durchschnitt zwischen 75 und 200 Token professional Sekunde erzeugt wurden. Es ist jedoch unklar, wie sie dazu angekommen sind.

Es scheint additionally, dass wir die Idee nicht ablehnen können, dass 3.200 Server in der Lage sein könnten, täglich 1 Milliarde Fragen zu bearbeiten.

Warum einige Experten skeptisch sind

Trotz der unterstützenden Beweise bleiben viele vorsichtig oder kritisch gegenüber den 0,34 in der Abbildung, was mehrere wichtige Bedenken auswirkt. Schauen wir uns diese an.

1. Die Nummer von OpenAI könnte wichtige Teile des Methods auslassen

Ich vermute, dass die Zahl nur die Energie enthält, die die GPU -Server selbst genutzt haben, und nicht die restlichen Infrastruktur – wie Datenspeicher, Kühlsysteme, Netzwerkausrüstung, Firewalls, Stromumwandlungsverlust oder Sicherungssysteme. Dies ist eine häufige Einschränkung der Energieberichterstattung zwischen Technologieunternehmen.

Zum Beispiel hat Meta in der Vergangenheit auch GPU-Energiezahlen gemeldet. In realen Rechenzentren ist die GPU-Leistung jedoch nur ein Teil des vollständigen Bildes.

2. Die Serverschätzungen scheinen im Vergleich zu Branchenberichten niedrig zu sein

Einige Kommentatoren wie Greenops Advocate Mark Butcher argumentieren, dass 3.200 GPU -Server viel zu niedrig zu sein scheinen, um alle Benutzer von ChatGPT zu unterstützen, insbesondere wenn Sie die globale Nutzung, hohe Verfügbarkeit und andere Anwendungen über das Gelegenheits -Chat überlegen (z. B. Codierung oder Bildanalyse).

Andere Berichte deuten darauf hin, dass OpenAI Zehn oder sogar Hunderttausende von GPUs zur Folge verwendet. Wenn dies zutrifft, könnte der Gesamtenergieverbrauch viel höher sein als die 0,34 WH/Question -Zahl.

3. Mangel an Particulars wirft Fragen auf

Kritiker, z David Myttonweisen auch darauf hin, dass die Aussage von OpenAI fehlt den grundlegenden Kontext. Zum Beispiel:

  • Was genau ist eine „durchschnittliche“ Abfrage? Eine einzige Frage oder ein vollständiges Gespräch?
  • Gilt diese Zahl nur für ein Modell (z. B. GPT-3,5, GPT-4O) oder einen Durchschnitt über mehrere?
  • Enthält es neuere, komplexere Aufgaben wie multimodale Eingaben (z. B. Analyse von PDFs oder Erzeugung von Bildern)?
  • Ist die Wasserverbrauchsnummer direkt (für Kühlanger verwendet) oder indirekt (aus Stromquellen wie Wasserkraft)?
  • Was ist mit Kohlenstoffemissionen? Das hängt stark vom Standort und dem Energiemix ab.

Ohne Antworten auf diese Fragen ist es schwer zu wissen, wie viel Vertrauen in die Nummer aufgenommen werden kann oder wie man es mit anderen KI -Systemen vergleichen kann.

Perspektiven

Hören Huge Tech endlich unsere Gebete?

Openais Offenlegung erfolgt im Gefolge Nvidias Veröffentlichung von Daten über die verkörperten Emissionen der GPUs und Googles Weblog -Beitrag über die Lebenszyklusemissionen ihrer TPU -{Hardware}. Dies könnte darauf hindeuten, dass die Unternehmen endlich auf die vielen Anrufe reagieren, die für mehr Transparenz getätigt wurden. Zeugen wir den Beginn einer neuen Ära? Oder spielt Sam Altman nur Methods für uns, weil es in seinen finanziellen Interessen liegt, die Klimawirkung seines Unternehmens herunterzuspielen? Ich werde diese Frage als Gedankenexperiment für den Leser hinterlassen.

Inferenz gegen Coaching

Historisch gesehen hat die Zahlen, die wir über den Energieverbrauch der KI gesehen und gemeldet haben Ausbildung KI -Modelle. Und während die Trainingsphase sehr energieintensiv sein kann, können im Laufe der Zeit Milliarden von Abfragen (Inferenz) tatsächlich mehr Energie verbrauchen, als das Modell überhaupt zu trainieren. Mein eigenes Schätzungen schlagen vor Dieses Coaching GPT-4 hat möglicherweise rund 50 bis 60 Millionen kWh Strom verwendet. Mit 0,34 WHOR-pro-Abfrage und 1 Milliarde tägliche Abfragen würde die Energie, die zur Beantwortung von Benutzeranfragen verwendet wird, die Energieverbrauch der Trainingsphase nach 150 bis 200 Tagen übertreffen. Dies verleiht der Idee Glaubwürdigkeit, dass Inferenzergie eine enge Messung wert ist.

Schlussfolgerung: Ein willkommener erster Schritt, aber weit entfernt vom vollständigen Bild

Gerade als wir dachten, die Debatte über Openais Energieverbrauch conflict alt geworden, rührt die notorisch geschlossene Firma sie mit der Offenlegung dieser Zahl auf. Viele freuen sich über die Tatsache, dass OpenAI nun in die Debatte über die Energie- und Wasserverbrauch ihrer Produkte eingetreten ist und hoffen, dass dies der erste Schritt in Richtung größerer Transparenz über die Ressource -Unentschieden und die Klimaauswirkungen von Huge Tech ist. Auf der anderen Seite stehen viele skeptisch gegenüber Openais Figur. Und aus gutem Grund. Es wurde als Klammern in einem Weblog -Beitrag über ein ein ganz anderes Thema offenbart, und es wurde keinerlei Kontext gegeben, wie oben beschrieben.

Obwohl wir vielleicht eine Verschiebung in Richtung mehr Transparenz beobachten, benötigen wir immer noch viele Informationen von OpenAI, um ihre 0,34 WH -Abbildung kritisch zu beurteilen. Bis dahin sollte es nicht nur mit einem Salzkorn, sondern auch mit einer Handvoll eingenommen werden.


Das conflict’s! Ich hoffe, Sie haben die Geschichte genossen. Lass mich wissen, was du denkst!

Folgen Sie mir für mehr über KI und Nachhaltigkeit und können Sie mir gerne folgen LinkedIn.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert