NVIDIA immediately introduced on the Computex confence in Taiwan NVIDIA DGX Cloud Lepton — an AI platform with a compute market that connects builders constructing agentic and bodily AI purposes with tens of 1000’s of GPUs from a community of cloud suppliers, together with CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nebius, Nscale, Softbank Corp. and Yotta Datendienste.
Die Plattformen bieten NVIDIA Blackwell und anderen NVIDIA -Architektur -GPUs auf dem DGX Cloud Lepton Market.
Entwickler können die GPU-Rechenkapazität in bestimmten Regionen sowohl für On-Demand- als auch für langfristige Computing nutzen und strategische und souveräne KI-Betriebsanforderungen unterstützen. Die führenden Cloud -Service -Anbieter und GPU -Marktplätze werden voraussichtlich auch am DGX Cloud Lepton Market teilnehmen.
„Nvidia DGX Cloud Lepton verbindet unser Netzwerk globaler GPU -Cloud -Anbieter mit KI -Entwicklern“, sagte Jensen Huang, Gründer und CEO von NVIDIA. „Zusammen mit unseren NCPs bauen wir eine AI-Fabrik auf planetarischer Ebene auf.“
Laut NVIDIA hilft DGX Cloud Lepton bei der Sicherung von Hochleistungs-GPU-Ressourcen, indem er den Zugriff auf Cloud-AI-Dienste und die GPU-Kapazität im gesamten NVIDIA-Laptop-Ökosystem vereint. Die Plattform integriert sich in den NVIDIA -Software program -Stack, einschließlich NVIDIA Nim und Nemo Microservices, NVIDIA -Blaupausen und Nvidia -Cloud -Funktionen, um die Entwicklung und Bereitstellung von AI -Anwendungen zu beschleunigen und zu vereinfachen.
DGX Cloud Lepton bietet Verwaltungssoftware für Cloud-Plattformen mit Funktionen, die eine Echtzeit-GPU-Gesundheitsdiagnostik liefern und die Analyse der Root-Trigger automatisieren, wodurch manuelle Vorgänge beseitigen und Ausfallzeiten verringern.
Zu den Funktionen gehören:
- Verbesserte Produktivität und Flexibilität: bietet ein einheitliches Erlebnis für Entwicklung, Schulung und Inferenz und steigern die Produktivität. Entwickler können GPU -Kapazitäten direkt von teilnehmenden Cloud -Anbietern über den Markt erwerben oder ihre eigenen Rechencluster mitbringen, was ihnen eine größere Flexibilität und Kontrolle verleiht.
- Reibungslose Bereitstellung: Ermöglicht die Bereitstellung von AI-Anwendungen in mehreren Cloud- und Hybridumgebungen mit minimaler Betriebsbelastung unter Verwendung integrierter Dienste für Inferenz-, Take a look at- und Schulungs-Workloads.
- Agilität und Souveränität: Ermöglicht den Entwicklern einen schnellen Zugriff auf GPU-Ressourcen in bestimmten Regionen, wodurch die Einhaltung der Vorschriften für die Datensoveränität und die Erfüllung der Anforderungen an wise Arbeitsbelastungen mit geringer Latenz erfüllt wird.
- Vorhersehbare Leistung: Bietet die teilnehmenden Cloud-Anbieter von Unternehmensqualität, Zuverlässigkeit und Sicherheit, um eine konsistente Benutzererfahrung zu gewährleisten.
Eine neue Bar für die Leistung von AI Cloud
NVIDIA kündigte heute auch NVIDIA -Exemplar -Clouds an, um NCPS bei der Verbesserung der Sicherheit, der Benutzerfreundlichkeit, der Leistung und der Ausfallsicherheit bei der Verwendung von NVIDIA -Fachkenntnissen, Referenzhardware, Software program sowie operativen Instruments zu verbessern.
NVIDIA -Exemplar -Clouds nutzen Nvidia DGX Cloud Benchmarking, eine umfassende Reihe von Instruments und Rezepten zur Optimierung der Workload -Leistung auf AI -Plattformen und der Quantifizierung der Beziehung zwischen Kosten und Leistung.
Yotta Information Providers ist die erste NCP in der asiatisch-pazifischen Area, die sich der NVIDIA-Exemplar Cloud-Initiative anschließt.
Entwickler können Melden Sie sich an Für den frühen Zugang zu Nvidia DGX Cloud Lepton.
