NVIDIA kündigte an, dass die GPU -Cloud -Plattform CoreWeave zu den ersten Cloud -Anbietern gehört, die die NVIDIA GB200 NVL72 -Systeme on-line im Maßstab bringen, wobei Cohere, IBM und Mistral KI sie für Modelltraining und -bereitstellung verwenden.
Die CoreWeave-Nvidia-Beziehung ist bekannt-Nvidia hat stark in CoreWeave investiert, als CoreWeave ein privates Unternehmen warfare, und jetzt als öffentlich gehalten, und CoreWeave, ein NVIDIA-bevorzugter Cloud-Companies-Anbieter, hat die NVIDIA-GPUs in seiner AI-Cloud-Infrastruktur übernommen. Im vergangenen Jahr warfare das Unternehmen zu den ersten, die NVIDIA H100 und NVIDIA H200 GPUS anbieten, und warfare einer der ersten, die die NVIDIA GB200 NVL72 -Systeme demonstrieren.
Laut CoreWeave ist das Portfolio von Cloud -Diensten für den GB200 NVL72 optimiert und bietet den Kubernetes -Service von CoreWeave, Slurm on Kubernetes (Sank), Mission Management und andere Dienste. Die Blackwell-Instanzen von CoreWeave skalieren auf bis zu 110.000 Blackwell-GPUs mit NVIDIA Quantum-2 Infiniband Networking.
Sagte Nvidia Zusammenhängen Verwendet seine Grace Blackwell Superchips, um sichere AI -Anwendungen für Unternehmen zu entwickeln. Mit seiner Unternehmens-KI-Plattform North können Groups personalisierte KI-Agenten aufbauen, um Unternehmens-Workflows, Oberflächen in Echtzeit und vielem mehr zu automatisieren. Das Unternehmen sagte, dass Cohere für 100 Milliarden Parametermodelle bis zu 3x mehr Leistung im Coaching im Vergleich zu Nvidia Hopper-GPUs der vorherigen Era erlebt-auch ohne Blackwell-spezifische Optimierungen.
IBMDer Einsatz setzt sich mit Tausenden von Blackwell-GPUs auf CoreWeave aus, um seine Granit-AI-Modelle für IBM Watsonx zu trainieren, um AI-Agenten zu bauen und einzusetzen. Die Bereitstellung funktioniert auch mit dem IBM Storage Scale System für AI.
Mistral AI, ein in Paris ansässiges Open-Supply-KI-Unternehmen, erhält laut NVIDIA seinen ersten Tausend-Blackwell-GPUs, um die nächste Era von Open-Supply-KI-Modellen aufzubauen. Das Unternehmen sagte, dies erfordert GPU -Cluster mit Nvidia Quantum Infiniband Networking- und Infrastrukturmanagementfunktionen wie z. CoreWeave Mission Management.
Das Unternehmen verzeichnete laut Thimothee Lacroix, Mitbegründer und Chief Expertise Officer bei Thimothee Lacroix, eine 2 -fach -Leistungsverbesserung für dichte Modelltraining Mistral Ai. „Was an NVIDIA GB200 NVL72 aufregend ist, sind die neuen Möglichkeiten, die es für die Modellentwicklung und die Inferenz eröffnet.“
„Unternehmen und Organisationen auf der ganzen Welt rennen, um Argumentationsmodelle in agierische KI -Anwendungen umzuwandeln, die die Artwork und Weise der Arbeit und des Spielens verwandeln“, sagte die Artwork und Weise, wie Menschen arbeiten und spielen “ Ian BuckVizepräsident von Hyperscale und HPC bei Nvidia. „Der schnelle Einsatz von NVIDIA GB200 -Systemen durch CoreWeave liefert die KI -Infrastruktur und -software, die KI -Fabriken Wirklichkeit werden.“
Das Unternehmen hat kürzlich einen Branchenrekord in KI -Inferenz mit NVIDIA GB200 Grace Blackwell Superchips nachgedacht, berichtete in den neuesten Ergebnissen von MLPerf V5.0. MLPerf Inferenz ist eine Benchmark -Suite zur Messung des maschinellen Lernens in realistischen Bereitstellungsszenarien.
CoreWeave bietet auch Instanzen mit NVIDIA NVLINK in Rack-Maßstäben über 72 Nvidia Blackwell GPUs und 36 Nvidia Grace CPUs, die mit NVIDIA Quantum-2 Infiniband-Netzwerk auf bis zu 110.000 GPUs skaliert werden.
Diese Fälle, die von der NVIDIA GB200 NVL72-Rack-Skala-Pc-Computing-Plattform beschleunigt wurden, bieten die Skala und Leistung, die zum Erstellen und Bereitstellen der nächsten Era von KI-Argumentationsmodellen und -agenten erforderlich sind.