Der Wettbewerbsvorteil von NVIDIA beruht auf Grafikprozessoren (GPUs), die groß, teuer und energieintensiv sind.
Angetrieben durch den Aufstieg der generativen KI hat sich der Halbleitermarkt als eine der profitabelsten Branchen weltweit etabliert − der Sektor ist bereits im Wert von über 600 Milliarden US-Greenback, wobei dieser Betrag bis 2030 auf 1 Billion US-Greenback steigen sollWährend dieser Wachstumsphase hat NVIDIA den Standing des unangefochtenen Marktführers erlangt, was vor allem auf die überlegene Leistung seiner Grafikprozessoren (GPUs) zurückzuführen ist.
Die hohe Leistung von GPUs in Bezug auf die reine Rechenleistung hat jedoch ihren Preis. Diese Chips sind sowohl teuer als auch energieintensiv, was die Frage aufwirft, ob ihre weit verbreitete Verwendung auf lange Sicht nachhaltig ist.
Laut Dorian Maillard, Vizepräsident bei DAI MagisterUmweltbedenken treiben die Entwicklung energieeffizienterer Algorithmen und {Hardware} voran, die den Grundstein für die Masseneinführung domänenspezifischer Prozessoren legen könnten, die für die effiziente Ausführung von KI-Aufgaben optimiert sind und als neuronale Verarbeitungseinheiten (NPUs) bezeichnet werden.
Maillard sagte: „Trotz der Bemühungen von Unternehmen wie Microsoft, AWS und Google, ihre eigenen KI-GPU- und NPU-Chips zu entwickeln, bleibt NVIDIA aufgrund der hohen Leistung und des etablierten Ökosystems seiner GPUs der klare Spitzenreiter auf dem KI-Hardwaremarkt. Dennoch überschattet NVIDIAs Dominanz im GPU-Bereich zwei grundlegende Probleme: hohe Investitionsausgaben und Energieverbrauch im Zusammenhang mit der Ausführung von KI.
„Es wird geschätzt, dass eine einzige KI-Suchanfrage verbraucht bis zu 10-mal mehr Energie als eine herkömmliche Google-Suche. Dies unterstreicht den Bedarf an Initiativen, die die Kosten und den CO2-Fußabdruck von KI verringern und gleichzeitig mit der Leistung von NVIDIA konkurrenzfähig bleiben.
„Dieses Drawback hat zu einem neuen Chiptyp geführt: der Neural Processing Unit (NPU). NPUs sind darauf ausgelegt, die Verarbeitung von KI-Aufgaben, einschließlich Deep Studying und Inferenz, zu beschleunigen. Sie können große Datenmengen parallel verarbeiten und komplexe KI-Algorithmen mithilfe eines speziellen On-Chip-Speichers zur effizienten Datenspeicherung und -abfrage schnell ausführen.
„GPUs verfügen über eine höhere Rechenleistung und sind vielseitiger einsetzbar, während NPUs kleiner, kostengünstiger und energieeffizienter sind. Widersprüchlicherweise können NPUs aufgrund ihrer speziellen Architektur GPUs bei bestimmten KI-Aufgaben auch übertreffen.
„Zu den wichtigsten NPU-Anwendungen zählen die Verbesserung von Effizienz und Produktivität im industriellen IoT und in der Automatisierungstechnologie, die Förderung von Technologien wie Infotainmentsystemen und autonomem Fahren im Automobilsektor, die Ermöglichung leistungsstarker Smartphone-Kameras, Augmented Actuality (AR), Gesichts- und Emotionserkennung und schnelle Datenverarbeitung.
„GPUs und NPUs können auch gemeinsam eingesetzt werden, um eine höhere Effizienz zu erzielen. In Rechenzentren und Machine-Studying-/Deep-Studying-Umgebungen (ML/DL) zum Trainieren von KI-Modellen werden NPUs zunehmend als Ergänzung zu GPUs integriert, insbesondere dort, wo Energieeinsparung und geringe Latenz erforderlich sind.“
Maillard schloss: „Wir erwarten, dass die Spendenaktivitäten im KI-bezogenen NPU-Edge-Gerätesektor ihren Aufwärtstrend fortsetzen werden. Mehrere Faktoren werden diese Dynamik vorantreiben: die wachsende Bedeutung der KI in quick allen Branchen, steigende Investitionen in Forschung und Entwicklung und ein Anstieg der Nachfrage nach leistungsstarken Chips mit geringem Stromverbrauch.
„Da größere Technologiegiganten wie Microsoft, AWS und Google aktiv versuchen, KI-Chip-Technologien zu entwickeln oder zu erwerben, zeichnet sich zudem eine Marktkonsolidierung ab. Diese Technologiegiganten wollen nicht nur ihre Kapazitäten erweitern, sondern auch sicherstellen, dass sie gegenüber der gewaltigen Präsenz von NVIDIA wettbewerbsfähig bleiben.“
Melden Sie sich für die kostenlosen insideAI Information an E-newsletter.
Folgen Sie uns auf Twitter: https://twitter.com/InsideBigData1
Folgen Sie uns auf LinkedIn: https://www.linkedin.com/firm/insideainews/
Folge uns auf Fb: https://www.fb.com/insideAINEWSNOW