Als Anfang dieses Jahres die Stargate-Ankündigung im Weißen Haus eine Welle atemberaubender Investitionen in Rechenzentren in Höhe von Hunderten von Milliarden Greenback auslöste, hätten wir mit Fug und Recht annehmen können, dass dies die Technologiegeschichte des Jahres sein würde.
Dann erst vor ein paar Wochen verblüffte NVIDIA die Technologiewelt, indem es 10 Milliarden US-Greenback in Intel investierte und dem ehemaligen Marktführer in der Chipbranche einen finanziellen Aufschwung von einem Unternehmen verschaffte, das in den letzten Jahren maßgeblich dazu beigetragen hat, die Marktposition von Intel zu schwächen. Intel könnte sich keinen besseren Accomplice als NVIDIA für den aggressiven Einstieg in den Markt für KI-Rechenzentrumsserverchips wünschen. Vor einer Woche hätten wir additionally vielleicht vermutet, dass NVIDIA-Intel die Tech-Story des Jahres sein wird.
Aber jetzt haben wir einen Deal im Wert von mehr als 95 Milliarden US-Greenback zwischen dem ChatGPT-Monster OpenAI und AMD, das nach einer Möglichkeit sucht, mit NVIDIA auf dem GPU-Markt zu konkurrieren. Ja, es gab einen Deal zwischen AMD und Oracle, im Juni angekündigtin dem Oracle aufgefordert wurde, 130.000 AMD MI355X-GPUs auf der Oracle Cloud-Infrastruktur bereitzustellen, und im März diskutierte Oracle während einer Telefonkonferenz über die Ergebnisse die Absicht, 30.000 AMD MI355X-Prozessoren bereitzustellen. Und dann sind da noch AMD-GPUs, die zwei der ersten drei in den USA ansässigen Exascale-Supercomputer antreiben, die derzeit auf der Rangliste stehen Nr. Platz 1 und 2 der TOP500-Liste eines der leistungsstärksten HPC-Systeme.
Aber das ist viel größer und verleiht AMD zusätzliche Glaubwürdigkeit auf dem KI-Computing-Markt, den NVIDIA mit einem Anteil von mehr als 90 Prozent dominiert.
Von allen Tagen seit dem letzten „AMD-Winter“ (additionally kurz bevor Lisa Su 2014 die Geschäftsführung übernommen hat) gehört der gestrige Tag zu den denkwürdigsten und nach Ansicht des Unternehmens bedeutsamsten (vielleicht ist es an der Zeit, die Erinnerungen an den alten Growth-and-Bust von AMD beiseite zu lassen, der sich im letzten Jahrzehnt bewundernswert geschlagen hat).
Der AMD-OpenAI-Deal sieht vor, dass Letzterer in den nächsten Jahren 6 Gigawatt Rechenkapazität mit AMD-Chips nutzt. Der Chip im Rampenlicht ist AMDs kommender Rackscale-KI-Prozessor MI450, der in der zweiten Hälfte des Jahres 2026 ausgeliefert werden soll. Er wird gegen den Vera Rubin der nächsten Technology antreten, der laut NVIDIA die dreifache Leistung der aktuellen Flaggschiff-Blackwell-Chips des Unternehmens liefern wird. Die Auslieferung von Vera Rubin ist ebenfalls für das dritte oder vierte Quartal nächsten Jahres geplant.
Es kann additionally sein, dass sich NVIDIA zum ersten Mal in einem echten GPU-Rennen befindet – vorausgesetzt, beide Unternehmen liefern ihre Subsequent-Gen-Chips termingerecht aus.
Lisa Su
Als Analyst der Chipindustrie Dr. Ian Cutress erklärt es„Aufgebaut auf der CDNA4-Architektur wird MI450 voraussichtlich die erste Produktlinie des Unternehmens sein, die für den Einsatz im echten Rack-Maßstab optimiert ist und Rechen-, Verbindungs- und Speicherbandbreite auf Systemebene und nicht auf Geräteebene integriert. AMDs Helios-Plattform, seine neue Referenzarchitektur für große KI-Cluster, wird MI450-GPUs mit Zen 6-basierten CPUs, Speicher mit hoher Bandbreite und fortschrittlicher Verbindungsstruktur kombinieren.“ vorgefertigte Rack-Systeme, die so konzipiert sind, dass sie direkt mit den HGX- und DGX-SuperPODs von NVIDIA konkurrieren können.“
Kurz gesagt, AMD steigt in ein anspruchsvolles KI-Computing-Unternehmen ein, und die Konkurrenz, der es beitritt, erinnert daran, wie AMD vor acht Jahren Intels scheinbar uneinnehmbare Führung bei CPUs übernahm.
Ein Schlüssel für die potenzielle Rack-Scale-Fähigkeit des MI450 ist AMDs Kauf des Server- und Herstellers ZT Methods im August 2024 für quick 5 Milliarden US-Greenback ein Artikel in CRNin dem Su im vergangenen Juni mit den Worten zitiert wurde: „Die Übernahme würde dem Unternehmen ‚Weltklasse-Systemdesign und Rack-Scale-Lösungskompetenz‘ verleihen, um ‚unsere Rechenzentrums-KI-Systeme und Kundenaktivierungsfähigkeiten erheblich zu stärken‘.“
Man könnte sich durchaus fragen, warum OpenAI sich für eine Partnerschaft mit AMD statt mit NVIDIA entschieden hat. Die Antwort ist, dass OpenAI GPU-unabhängig ist und eine Lieferkette mit mehreren Anbietern benötigt, um seinen enormen Bedarf an KI-Computern zu decken, und natürlich auch daran hat eine Partnerschaft mit NVIDIA, die Ende letzten Monats angekündigt wurde und die sogar größer ist als die AMD-Vereinbarung.
Im Rahmen des NVIDIA-Vertrags wird OpenAI mindestens 10 Gigawatt KI-Rechenzentren bereitstellen, wobei NVIDIA-Systeme Millionen von GPUs für die KI-Infrastruktur der nächsten Technology von OpenAI darstellen. NVIDIA wird seinerseits mit jedem bereitgestellten Gigawatt schrittweise bis zu 100 Milliarden US-Greenback in OpenAI investieren. Die Einführung ist gleichzeitig mit den AMD-basierten Bereitstellungen von OpenAI geplant.
Um die finanziellen Vorteile des OpenAI-Offers zu nutzen, muss AMD nun ein extrem hohes Niveau erreichen. Wie Cutress sagte: „Die Bereitstellung von sechs Gigawatt GPU-Kapazität für Rechenzentren erfordert eine konsistente Foundry-Zuteilung, Substratverfügbarkeit und Speicherversorgung mit hoher Bandbreite über mehrere Jahre hinweg. Dies struggle … (als) … AMD seine mehrjährigen Investitionen in die Stabilität der Lieferkette anführte. Jede Unterbrechung bei Wafer-Begins oder Verpackungskapazitäten, insbesondere da AMD mit NVIDIA und anderen um die CoWoS-Kapazität von TSMC konkurriert, könnte die Erfüllung verzögern.“
Aber AMD hat seit dem Ende seiner schlechten alten Zeiten vor mehr als einem Jahrzehnt, vor so langer Zeit, dass sie aus der Erinnerung verschwunden sind, konstant gute Leistungen erbracht.
