
In Teil 2 unserer zweiteiligen Serie auf Umweltauswirkungen der generativen künstlichen IntelligenzAnwesend MIT Nachrichten Untersucht einige der Möglichkeiten, wie Experten daran arbeiten, den CO2 -Fußabdruck der Technologie zu verringern.
Die Energieanforderungen von Generative Ai Es wird erwartet, dass sie im nächsten Jahrzehnt weiterhin dramatisch zunehmen.
Zum Beispiel sagt ein Bericht der Worldwide Vitality Company im April 2025 voraus, dass die Globaler Strombedarf aus Rechenzentrenin dem die Computerinfrastruktur für die Ausbildung und Bereitstellung von KI-Modellen untergebracht ist, wird bis 2030 mehr als verdoppeln, um rund 945 Terawatt-Stunden zu erzielen. Obwohl nicht alle in einem Rechenzentrum durchgeführten Operationen KI-bezogen sind, ist diese Gesamtmenge etwas mehr als der Energieverbrauch Japans.
Darüber hinaus prognostiziert eine Analyse von Goldman Sachs Analysis Prognosen, dass etwa 60 Prozent der steigenden Stromanforderungen aus Rechenzentren durch Verbrennen fossiler Brennstoffe erfüllt werden, wodurch zunimmt Globale Kohlenstoffemissionen um etwa 220 Millionen Tonnen. Im Vergleich dazu erzeugt das Fahren eines gasbetriebenen Autos für 5.000 Meilen etwa 1 Tonne Kohlendioxid.
Diese Statistiken sind erstaunlich, aber gleichzeitig untersuchen Wissenschaftler und Ingenieure am MIT und auf der ganzen Welt Innovationen und Interventionen, um die CO2 -Fußabdruck von AI zu mildern, von der Steigerung der Effizienz von Algorithmen zum Überdenken des Designs von Datenzentren.
Unter Berücksichtigung der Kohlenstoffemissionen
Die Rede von der Verringerung der CO2 -Fußabdruck von Generative AI liegt in der Regel auf „operativen Kohlenstoff“ – den Emissionen der leistungsstarken Prozessoren, die als GPUs bekannt sind, in einem Rechenzentrum. Es ignoriert häufig „verkörperte Kohlenstoff“, die Emissionen sind, die durch den Bau des Rechenzentrums in erster Linie geschaffen wurden, sagt Vijay Gadepal, leitender Wissenschaftler am MIT Lincoln Laboratory, der Forschungsprojekte im Lincoln Laboratory Supercomputing Heart leitet.
Das Bau und Nachrüst eines Rechenzentrums, das aus Tonnen aus Stahl und Beton erstellt und mit Klimaanlagen, Computerhardware und Kilometer Kabel gefüllt ist, verbraucht eine große Menge Kohlenstoff. In der Tat sind die Umweltauswirkungen von Bauen von Rechenzentren ein Grund, warum Unternehmen wie Unternehmen mögen Meta Und Google Erforschen nachhaltigere Baumaterialien. (Kosten ist ein weiterer Faktor.)
Außerdem sind Rechenzentren enorme Gebäude-der weltweit größte, der China Telecomm-Internal Mongolia Info Park, Engfs ungefähr 10 Millionen Quadratfuß – Mit etwa dem 10- bis 50 -fachen der Energiedichte eines normalen Bürogebäudes fügt Gadepally hinzu.
„Die operative Seite ist nur ein Teil der Geschichte. Einige Dinge, an denen wir arbeiten, um die operativen Emissionen zu verringern, können sich auch dazu vergeben, verkörperten Kohlenstoff zu reduzieren, aber wir müssen in Zukunft mehr an dieser Entrance tun“, sagt er.
Reduzierung der operativen Kohlenstoffemissionen
Wenn es darum geht, die operativen Kohlenstoffemissionen von AI-Rechenzentren zu reduzieren, gibt es viele Parallelen zu Energiesparmaßnahmen zu Hause. Zum einen können wir einfach die Lichter drehen.
„Selbst wenn Sie die schlechtesten Glühbirnen in Ihrem Haus vom Effizienz Standpunkt aus haben, wird es immer weniger Energie verbrauchen, als sie mit voller Explosion laufen zu können“, sagt Gadepally.
In der gleichen Weise hat die Forschung aus dem Supercomputing -Zentrum gezeigt, dass „die GPU Dreizehntel die Energie Hat minimale Auswirkungen auf die Leistung von KI -Modellen und erleichtert gleichzeitig die {Hardware}.
Eine andere Strategie besteht darin, weniger energieintensive Computerhardware zu verwenden.
Anspruchsvoller generativer KI-Workloads, wie z. B. neue Argumentationsmodelle wie GPT-5, müssen in der Regel gleichzeitig viele GPUs arbeiten. Die Goldman Sachs-Analyse schätzt, dass ein hochmodernes System bald bis zu 576 angeschlossene GPUs gleichzeitig betrieben werden könnte.
Ingenieuren können jedoch manchmal ähnliche Ergebnisse erzielen, indem sie die Genauigkeit der Computerhardware reduzieren, möglicherweise durch Wechsel auf weniger leistungsstarke Prozessoren, die für eine bestimmte KI -Arbeitsbelastung abgestimmt wurden.
Es gibt auch Maßnahmen, die die Effizienz von Trainingsemodellen mit tiefen Lernmodellen steigern, bevor sie eingesetzt werden.
Die Gruppe von Gadepally stellte fest, dass etwa die Hälfte des für die Schulung eines KI -Modells verwendeten Stroms für die Genauigkeit der letzten 2 oder 3 Prozentpunkte ausgegeben wird. Wenn Sie den Trainingsprozess frühzeitig stoppen, können Sie viel von dieser Energie sparen.
„Es kann Fälle geben, in denen eine Genauigkeit von 70 Prozent für eine bestimmte Anwendung intestine genug ist, z. B. ein Empfehlungssystem für E-Commerce“, sagt er.
Forscher können auch die Effizienz-Boosting-Maßnahmen nutzen.
Beispielsweise hat ein Postdoc im Supercomputing Heart erkannt, dass die Gruppe während des Trainingsprozesses tausend Simulationen durchführen könnte, um die zwei oder drei besten KI -Modelle für ihr Projekt auszuwählen.
Durch den Aufbau eines Instruments, mit dem sie etwa 80 Prozent dieser Verschwendung von Rechenzyklen vermeiden konnten, reduzierten sie die Energieanforderungen des Trainings ohne Verringerung der Modellgenauigkeit dramatisch, sagt Gadepally.
Effizienzverbesserungen nutzen
Ständige Innovationen in der Computerhardware wie dichtere Transistorenanordnungen auf Halbleiterchips ermöglichen immer noch dramatische Verbesserungen bei der Energieeffizienz von AI -Modellen.
Obwohl sich die Verbesserungen der Energieeffizienz seit etwa 2005 für die meisten Chips verlangsamt haben, hat sich die Berechnung, die GPUs professional Joule von Energie ausführen kann, jedes Jahr um 50 bis 60 Prozent verbessert, sagt Neil Thompson, Direktor des Futuretech -Forschungsprojekts bei MIT Informatik und künstlichem Intelligence -Labor und einem Hauptuntersuchungslabor des MIT bei der Digital Financial system.
„Der immer noch in Verbindung stehende Pattern, immer mehr Transistoren für Chip zu bekommen, ist für viele dieser KI-Systeme immer noch wichtig, da der parallele Betriebsvorgang immer noch sehr wertvoll für die Verbesserung der Effizienz ist“, sagt Thomspon.
Noch wichtiger ist, dass die Forschungsergebnisse seiner Gruppe darauf hinweisen, dass die Effizienzgewinne aus neuen Modellarchitekturen, die komplexe Probleme schneller lösen und weniger Energie verbrauchen, um dieselben oder besseren Ergebnisse zu erzielen, alle acht oder neun Monate verdoppelt.
Thompson prägte den Begriff “Negaflop„Um diesen Effekt zu beschreiben. Genauso wie ein„ Negawatt “Strom, das durch energiesparende Maßnahmen eingespart wird, ist ein„ Negaflop “ein Computerbetrieb, der aufgrund algorithmischer Verbesserungen nicht durchgeführt werden muss.
Das könnten Dinge wie “sein“Beschneidung„Unnötige Komponenten eines neuronalen Netzwerks oder einsetzen Kompressionstechniken Dadurch können Benutzer mehr mit weniger Berechnungen tun.
„Wenn Sie heute ein wirklich leistungsstarkes Modell verwenden müssen, um Ihre Aufgabe in wenigen Jahren zu erledigen, können Sie möglicherweise ein wesentlich kleineres Modell verwenden, um dasselbe zu tun, was viel weniger Umweltbelastung tragen würde. Diese Modelle sind effizienter zu gestalten, ist das wichtigste, was Sie tun können, um die Umweltkosten der AI zu senken“, sagt Thompson.
Energieeinsparung maximieren
Während die Verringerung des Gesamtenergieverbrauchs von AI -Algorithmen und der Computerhardware die Treibhausgasemissionen reduziert, ist nicht die gesamte Energie gleich, fügt Gadepally hinzu.
„Die Menge an Kohlenstoffemissionen in 1 Kilowattstunde variiert sehr erheblich, selbst während des Tages sowie über den Monat und Jahr“, sagt er.
Ingenieure können diese Variationen nutzen, indem sie die Flexibilität von KI -Workloads und Rechenzentrumsvorgängen nutzen, um die Emissionsreduzierungen zu maximieren. Zum Beispiel müssen einige generative KI -Workloads nicht gleichzeitig vollständig durchgeführt werden.
Das Aufteilen von Computervorgängen, sodass einige später durchgeführt werden, wenn mehr Strom in das Netz aus erneuerbaren Quellen wie Photo voltaic und Wind stammt, kann die CO2 -Fußabdruck eines Rechenzentrums erheblich reduzieren, sagt Deepjyoti Deka, ein Forschungswissenschaftler in der MIT -Energieinitiative.
Deka und sein Crew untersuchen auch „intelligentere“ Rechenzentren, in denen die KI -Arbeitsbelastung mehrerer Unternehmen, die dieselben Computergeräte verwenden, flexibel angepasst werden, um die Energieeffizienz zu verbessern.
„Durch die Betrachtung des Techniques als Ganzes besteht unsere Hoffnung darin, den Energieverbrauch sowie die Abhängigkeit von fossilen Brennstoffen zu minimieren und gleichzeitig die Zuverlässigkeitsstandards für KI -Unternehmen und -Nutzer beizubehalten“, sagt Deka.
Er und andere bei MITEi bauen ein Flexibilitätsmodell eines Rechenzentrums auf, das die unterschiedlichen Energiebedingungen für die Schulung eines Tiefenlernmodells im Vergleich zur Bereitstellung dieses Modells berücksichtigt. Ihre Hoffnung ist es, die besten Strategien für die Planung und Straffung von Computervorgängen aufzudecken, um die Energieeffizienz zu verbessern.
Die Forscher untersuchen auch den Einsatz von Langzeitenergiespeichereinheiten in Rechenzentren, die überschüssige Energie für Zeiten speichern, wenn sie benötigt werden.
Mit diesen Systemen könnte ein Rechenzentrum gespeicherte Energie verwenden, die während eines hohen Nachfragezeitraums durch erneuerbare Quellen erzeugt wurde, oder die Verwendung von Diesel-Backup-Generatoren vermeiden, wenn es Schwankungen im Netz gibt.
„Langzeitenergiespeicher könnte hier ein Spielveränderer sein, da wir Vorgänge entwerfen können, die den Emissionsmix des Techniques wirklich verändern, um mehr auf erneuerbare Energien zu stützen“, sagt Deka.
Darüber hinaus entwickeln Forscher der MIT und der Princeton College ein Softwaretool für die Investitionsplanung im Stromsektor mit dem Namen Genxmit der Unternehmen den idealen Ort für die Lokalisierung eines Rechenzentrums zur Minimierung von Umweltauswirkungen und -kosten helfen könnten.
Die Lage kann einen großen Einfluss auf die Reduzierung des CO2 -Fußabdrucks eines Rechenzentrums haben. Zum Beispiel betreibt Meta a Rechenzentrum in LuleaEine Stadt an der Küste Nordschwedens, in der kühlere Temperaturen die für die Kühlung von Computerhardware erforderliche Strommenge verringern.
Weitere Regierungen untersuchen weiter außerhalb des Tellers (weit weiter) und erforschen sogar den Bau von Rechenzentren auf dem Mond wo sie möglicherweise mit quick allen erneuerbaren Energien betrieben werden konnten.
AI-basierte Lösungen
Derzeit hält die Ausweitung der Era erneuerbarer Energien hier auf der Erde nicht mit dem schnellen Wachstum von AI Schritt, was ein wichtiger Hindernis für die Reduzierung seines CO2-Fußabdrucks ist, sagt Jennifer Turliuk MBA ’25, Kurzzeit-Dozentin, ehemaliger Sloan-Stipendiatin und ehemaliger Praxisführer von Klima und Energie AI am Martin Belief Heart für den Unternehmertum.
Die lokalen, staatlichen und föderalen Überprüfungsverfahren, die für neue Projekte für erneuerbare Energien erforderlich sind, können Jahre dauern.
Forscher am MIT und anderswo untersuchen die Verwendung von KI, um den Prozess der Verbindung neuer erneuerbarer Energiesysteme mit dem Stromnetz zu beschleunigen.
Beispielsweise könnte ein generatives KI -Modell die Verbindungsstudien rationalisieren, die bestimmen, wie sich ein neues Projekt auf das Stromnetz auswirkt, ein Schritt, der oft Jahre dauert.
Und wenn es geht zu Beschleunigung der Entwicklung und Implementierung sauberer EnergietechnologienKI könnte eine wichtige Rolle spielen.
„Maschinelles Lernen eignet sich hervorragend für komplexe Situationen, und das elektrische Netz soll eine der größten und komplexesten Maschinen der Welt sein“, fügt Turliuk hinzu.
Beispielsweise könnte KI dazu beitragen, die Vorhersage der Erzeugung der Sonnen- und Windenergie zu optimieren oder ideale Standorte für neue Einrichtungen zu identifizieren.
Es könnte auch verwendet werden, um eine Vorhersagewartungs- und Fehlererkennung für Sonnenkollektoren oder andere Infrastrukturen für grüne Energie durchzuführen oder die Kapazität von Übertragungsdrähten zur Maximierung der Effizienz zu überwachen.
Durch die Unterstützung von Forschern, die große Datenmengen sammeln und analysieren, könnte AI auch gezielte politische Interventionen darüber informieren, die darauf abzielen, aus Bereichen wie erneuerbarer Energien den größten „Knall for the Bock“ zu erhalten, sagt Turliuk.
Um politischen Entscheidungsträgern, Wissenschaftlern und Unternehmen die vielfältigen Kosten und Vorteile von KI -Systemen zu berücksichtigen, entwickelten sie und ihre Mitarbeiter den Nettoklima -Influence -Rating.
Die Punktzahl ist ein Rahmen, mit dem die Auswirkungen von KI -Projekten der Nettoklima unter Berücksichtigung von Emissionen und anderen Umweltkosten zusammen mit potenziellen Umweltvorteilen in Zukunft zur Bestimmung der Nettoklima -Auswirkungen verwendet werden können.
Letztendlich werden die effektivsten Lösungen wahrscheinlich aus Zusammenarbeit zwischen Unternehmen, Aufsichtsbehörden und Forschern zurückzuführen, wobei die Akademie die Vorreiter hat, fügt Turliuk hinzu.
„Jeder Tag zählt. Wir sind auf einem Weg, auf dem die Auswirkungen des Klimawandels erst dann vollständig bekannt sind, wenn es zu spät ist, etwas dagegen zu unternehmen. Dies ist eine einmalige Gelegenheit, innovativ zu sein und KI-Systeme weniger kohlenstoffintensiv zu machen“, sagt sie.
