In einer zweiteiligen Serie MIT-Nachrichten untersucht die Umweltauswirkungen generativer KI. In diesem Artikel untersuchen wir, warum diese Technologie so ressourcenintensiv ist. In einem zweiten Teil wird untersucht, was Experten tun, um den CO2-Fußabdruck und andere Auswirkungen von genAI zu reduzieren.
Die Aufregung um die potenziellen Vorteile von generative KIvon der Verbesserung der Arbeitsproduktivität bis zur Förderung der wissenschaftlichen Forschung, ist schwer zu ignorieren. Während das explosive Wachstum dieser neuen Technologie den schnellen Einsatz leistungsstarker Modelle in vielen Branchen ermöglicht hat, sind die Umweltfolgen dieses generativen KI-„Goldrauschs“ nach wie vor schwer zu bestimmen, geschweige denn zu mildern.
Die Rechenleistung, die zum Trainieren generativer KI-Modelle erforderlich ist, die oft über Milliarden von Parametern verfügen, wie etwa GPT-4 von OpenAI, kann eine enorme Menge an Strom erfordern, was zu erhöhten Kohlendioxidemissionen und Belastungen für das Stromnetz führt.
Darüber hinaus verbraucht der Einsatz dieser Modelle in realen Anwendungen, der es Millionen Menschen ermöglicht, generative KI in ihrem täglichen Leben zu nutzen, und die anschließende Feinabstimmung der Modelle zur Verbesserung ihrer Leistung viel Energie, lange nachdem ein Modell entwickelt wurde.
Über den Strombedarf hinaus wird viel Wasser benötigt, um die {Hardware} zu kühlen, die für das Coaching, den Einsatz und die Feinabstimmung generativer KI-Modelle verwendet wird, was die kommunale Wasserversorgung belasten und lokale Ökosysteme stören kann. Die zunehmende Zahl generativer KI-Anwendungen hat auch die Nachfrage nach Hochleistungs-Computing-{Hardware} angekurbelt und zu indirekten Umweltauswirkungen durch deren Herstellung und Transport geführt.
„Wenn wir über die Umweltauswirkungen der generativen KI nachdenken, geht es nicht nur um den Strom, den Sie verbrauchen, wenn Sie den Pc anschließen. Es gibt viel umfassendere Konsequenzen, die auf Systemebene wirken und basierend auf den von uns ergriffenen Maßnahmen bestehen bleiben“, sagt er Elsa A. Olivetti, Professorin am Division of Supplies Science and Engineering und Leiterin der Dekarbonisierungsmission des neuen MIT Klimaprojekt.
Olivetti ist leitender Autor eines Artikels aus dem Jahr 2024: „Die Auswirkungen generativer KI auf Klima und Nachhaltigkeit„, gemeinsam verfasst von MIT-Kollegen als Reaktion auf einen institutsweiten Aufruf zur Einreichung von Beiträgen, die das transformative Potenzial generativer KI sowohl in optimistic als auch unfavorable Richtungen für die Gesellschaft untersuchen.
Anspruchsvolle Rechenzentren
Der Strombedarf von Rechenzentren ist ein wesentlicher Faktor, der zu den Umweltauswirkungen der generativen KI beiträgt, da Rechenzentren zum Trainieren und Ausführen der Deep-Studying-Modelle verwendet werden, die hinter beliebten Instruments wie ChatGPT und DALL-E stehen.
Ein Rechenzentrum ist ein temperaturkontrolliertes Gebäude, in dem Computerinfrastruktur wie Server, Datenspeicherlaufwerke und Netzwerkgeräte untergebracht sind. Amazon hat zum Beispiel mehr als 100 Rechenzentren weltweitvon denen jeder über etwa 50.000 Server verfügt, die das Unternehmen zur Unterstützung von Cloud-Computing-Diensten nutzt.
Zwar gibt es seit den 1940er Jahren Rechenzentren (das erste wurde 1945 an der College of Pennsylvania gebaut, um das zu unterstützen). erster Allzweck-Digitalcomputerder ENIAC), hat der Aufstieg der generativen KI das Tempo beim Bau von Rechenzentren dramatisch beschleunigt.
„Der Unterschied zur generativen KI liegt in der Leistungsdichte, die sie erfordert. Im Grunde handelt es sich nur um Pc, aber ein generatives KI-Trainingscluster könnte sieben- oder achtmal mehr Energie verbrauchen als eine typische Computerarbeitslast“, sagt Noman Bashir, Hauptautor des Influence Papers und Computing and Local weather Influence Fellow am MIT Local weather and Sustainability Consortium (MCSC) und Postdoc im Pc Science and Synthetic Intelligence Laboratory (CSAIL).
Wissenschaftler haben geschätzt, dass der Strombedarf von Rechenzentren in Nordamerika von 2.688 Megawatt Ende 2022 auf 5.341 Megawatt Ende 2023 gestiegen ist, was teilweise auf die Anforderungen der generativen KI zurückzuführen ist. Weltweit ist der Stromverbrauch von Rechenzentren im Jahr 2022 auf 460 Terawatt gestiegen. Damit wären Rechenzentren laut der Studie der 11. größte Stromverbraucher der Welt, zwischen den Ländern Saudi-Arabien (371 Terawatt) und Frankreich (463 Terawatt). Organisation für wirtschaftliche Zusammenarbeit und Entwicklung.
Bis 2026 wird der Stromverbrauch von Rechenzentren voraussichtlich 1.050 Terawatt erreichen (was Rechenzentren auf den fünften Platz der globalen Liste, zwischen Japan und Russland, bringen würde).
Obwohl nicht alle Rechenzentrumsberechnungen generative KI beinhalten, ist die Technologie ein wesentlicher Treiber für den steigenden Energiebedarf.
„Der Bedarf an neuen Rechenzentren kann nicht nachhaltig gedeckt werden. Das Tempo, mit dem Unternehmen neue Rechenzentren bauen, bedeutet, dass der Großteil des Stroms für deren Betrieb aus Kraftwerken stammen muss, die auf fossilen Brennstoffen basieren“, sagt Bashir.
Die Leistung, die zum Trainieren und Bereitstellen eines Modells wie GPT-3 von OpenAI erforderlich ist, ist schwer zu ermitteln. In einer Forschungsarbeit aus dem Jahr 2021 schätzten Wissenschaftler von Google und der College of California in Berkeley, dass allein der Trainingsprozess 1.287 Megawattstunden Strom verbrauchte (genug, um etwa 120 durchschnittliche US-Haushalte ein Jahr lang mit Strom zu versorgen) und etwa 552 Tonnen Kohlendioxid erzeugte.
Während alle Modelle für maschinelles Lernen trainiert werden müssen, besteht ein einzigartiges Downside der generativen KI in den schnellen Schwankungen des Energieverbrauchs, die in verschiedenen Phasen des Trainingsprozesses auftreten, erklärt Bashir.
Stromnetzbetreiber müssen eine Möglichkeit haben, diese Schwankungen aufzufangen, um das Netz zu schützen, und das setzen sie in der Regel ein dieselbasierte Generatoren für diese Aufgabe.
Zunehmende Auswirkungen durch Schlussfolgerungen
Sobald ein generatives KI-Modell trainiert ist, verschwindet der Energiebedarf nicht.
Jedes Mal, wenn ein Modell verwendet wird, beispielsweise durch eine Particular person, die ChatGPT bittet, eine E-Mail zusammenzufassen, verbraucht die Computerhardware, die diese Vorgänge ausführt, Energie. Forscher haben geschätzt, dass eine ChatGPT-Abfrage etwa fünfmal mehr Strom verbraucht als eine einfache Websuche.
„Aber ein normaler Benutzer macht sich darüber nicht allzu viele Gedanken“, sagt Bashir. „Die Benutzerfreundlichkeit generativer KI-Schnittstellen und der Mangel an Informationen über die Umweltauswirkungen meiner Handlungen führen dazu, dass ich als Nutzer kaum einen Anreiz habe, den Einsatz generativer KI einzuschränken.“
Bei der herkömmlichen KI verteilt sich der Energieverbrauch ziemlich gleichmäßig auf Datenverarbeitung, Modelltraining und Inferenz, additionally den Prozess, bei dem ein trainiertes Modell verwendet wird, um Vorhersagen zu neuen Daten zu treffen. Bashir geht jedoch davon aus, dass der Strombedarf der generativen KI-Inferenz irgendwann dominieren wird, da diese Modelle in so vielen Anwendungen allgegenwärtig werden und der für die Inferenz benötigte Strom zunehmen wird, wenn zukünftige Versionen der Modelle größer und komplexer werden.
Darüber hinaus haben generative KI-Modelle eine besonders kurze Haltbarkeit, was auf die steigende Nachfrage nach neuen KI-Anwendungen zurückzuführen ist. Unternehmen veröffentlichen alle paar Wochen neue Modelle, sodass die Energie, die für das Coaching früherer Versionen aufgewendet wurde, verschwendet wird, fügt Bashir hinzu. Neue Modelle verbrauchen für das Coaching oft mehr Energie, da sie in der Regel über mehr Parameter verfügen als ihre Vorgänger.
Während der Strombedarf von Rechenzentren in der Forschungsliteratur möglicherweise die größte Aufmerksamkeit erhält, hat die von diesen Einrichtungen verbrauchte Wassermenge auch Auswirkungen auf die Umwelt.
Gekühltes Wasser wird zur Kühlung eines Rechenzentrums verwendet, indem es Wärme von Computergeräten aufnimmt. Schätzungen zufolge bräuchte ein Rechenzentrum für jede Kilowattstunde Energie, die es verbraucht, zwei Liter Wasser zur Kühlung, sagt Bashir.
„Nur weil dies ‚Cloud Computing‘ genannt wird, heißt das nicht, dass die {Hardware} in der Cloud lebt. Rechenzentren gibt es in unserer physischen Welt, und aufgrund ihres Wasserverbrauchs haben sie direkte und indirekte Auswirkungen auf die Artenvielfalt“, sagt er.
Die Computerhardware in Rechenzentren bringt ihre eigenen, weniger direkten Auswirkungen auf die Umwelt mit sich.
Während es schwierig ist abzuschätzen, wie viel Energie für die Herstellung einer GPU benötigt wird, einer Artwork leistungsstarker Prozessor, der intensive generative KI-Arbeitslasten bewältigen kann, wäre es mehr als das, was für die Herstellung einer einfacheren CPU benötigt wird, da der Herstellungsprozess komplexer ist. Der CO2-Fußabdruck einer GPU wird durch die Emissionen im Zusammenhang mit dem Materials- und Produkttransport verschärft.
Die Beschaffung der zur Herstellung von GPUs verwendeten Rohstoffe hat auch Auswirkungen auf die Umwelt, was schmutzige Bergbauverfahren und den Einsatz giftiger Chemikalien bei der Verarbeitung umfassen kann.
Das Marktforschungsunternehmen TechInsights schätzt, dass die drei großen Hersteller (NVIDIA, AMD und Intel) im Jahr 2023 3,85 Millionen GPUs an Rechenzentren geliefert haben, gegenüber etwa 2,67 Millionen im Jahr 2022. Es wird erwartet, dass diese Zahl im Jahr 2024 um einen noch größeren Prozentsatz gestiegen ist .
Die Branche befinde sich auf einem nicht nachhaltigen Weg, aber es gebe Möglichkeiten, eine verantwortungsvolle Entwicklung generativer KI zu fördern, die Umweltziele unterstützt, sagt Bashir.
Er, Olivetti und ihre MIT-Kollegen argumentieren, dass dies eine umfassende Betrachtung aller ökologischen und gesellschaftlichen Kosten generativer KI sowie eine detaillierte Bewertung des Werts ihrer wahrgenommenen Vorteile erfordert.
„Wir brauchen eine kontextbezogenere Möglichkeit, die Auswirkungen neuer Entwicklungen in diesem Bereich systematisch und umfassend zu verstehen. Aufgrund der Geschwindigkeit, mit der es Verbesserungen gab, hatten wir keine Likelihood, unsere Fähigkeiten zur Messung und zum Verständnis der Kompromisse aufzuholen“, sagt Olivetti.