Singularity Compute, die Infrastrukturabteilung der KI-Schicht SingularityNET, hat die Einführung seines ersten NVIDIA-GPU-Clusters der Enterprise-Klasse angekündigt. Die in Schweden in Zusammenarbeit mit dem nachhaltigen Rechenzentrumsbetreiber Conapto errichtete Anlage verwirklicht das Ziel von Singularity, ein globales {Hardware}-Rückgrat für die Synthetic Superintelligence (ASI) Alliance zu schaffen.
Durch die Einführung wird die Infrastruktur hinter der dezentralen künstlichen Intelligenz gestärkt und gleichzeitig Unternehmen bedarfsgerechter Zugriff auf Rechenleistung für KI-Workloads ermöglicht. Diese Bereitstellung mit doppeltem Zweck bietet leistungsstarke Rechenleistung für kommerzielle Unternehmens-Workloads und unterstützt die ehrgeizigen Forschungsprojekte, die im ASI-Ökosystem stattfinden.
Eine Grundlage für dezentrale Intelligenz
Singularitätsberechnungen Einsatz erreicht einen kritischen Punkt in der KI-Branche, an dem die Nachfrage nach reiner Rechenleistung das Angebot übersteigt. Die neue Einrichtung bietet versatile Zugriffsmodelle, einschließlich Naked-Metallic-Vermietung, Vermietung auf Foundation virtueller Maschinen (VM) und dedizierter Inferenz-API-Endpunkte. Diese Flexibilität ermöglicht es Unternehmen, alles zu bewältigen, von der Schulung und Feinabstimmung schwerer Modelle bis hin zur Ausführung von Forschungs- und Entwicklungsarbeitslasten.
Über die Rohdatenverarbeitung hinaus wird der schwedische Cluster als Engine für ASI:Cloud dienen, einen KI-Modell-Inferenzdienst, der in Zusammenarbeit mit CUDOS, dem Web3-Zweig von CUDO, entwickelt wurde. Der Dienst zielt darauf ab, Entwicklern einen skalierbaren Weg zu bieten und OpenAI-kompatible APIs anzubieten, die es Projekten ermöglichen, reibungslos von serverloser Inferenz zu dedizierten Clustern zu wechseln.
Die Infrastruktur selbst wird von CUDO, einem langjährigen NVIDIA-Cloud-Companion, verwaltet und gewährleistet so die von Unternehmenskunden geforderte Zuverlässigkeit und Betriebszeit. Der Einsatz geht direkt auf die primären Herausforderungen ein, mit denen Unternehmen konfrontiert sind, die Zugriff auf GPU-Rechner benötigen, einschließlich der Abhängigkeit von einem Anbieter und der steigenden Kosten aufgrund der hohen Nachfrage.
Dieser „GPU-Squeeze“ bedeutet, dass der Zugang zu leistungsstarken NVIDIA-GPUs mit langen Wartelisten oder dem Abschluss mehrjähriger Verträge mit Anbietern verbunden sein kann. Das von Singularity Compute angebotene Setup kommt auch Groups zugute, die Projekte durchführen, die ultrahochleistungsfähiges Computing erfordern.
Der Großteil der Public-Cloud-GPU-Instanzen ist virtualisiert, was im Vergleich zur Ausführung direkt auf der {Hardware} mit einer leichten Leistungseinbuße einhergeht. Durch den Naked-Metallic-Zugriff eignet sich die Lösung von Singularity Compute ideally suited für das Coaching umfangreicher KI-Modelle, bei denen jedes 1 % gewonnene Effizienz zu Tausenden von Greenback an Strom und Zeiteinsparungen führen kann.
Förderung ethischer AGI
Dr. Ben Goertzel, CEO und Gründer von SingularityNET und der ASI Alliance, betrachtet die physische Infrastruktur als Voraussetzung für die Entwicklung der Künstlichen Allgemeinen Intelligenz (AGI) und erklärt: „Wir brauchen leistungsstarke Rechenleistung, die für die Zusammenarbeit mit dezentralen Netzwerken konfiguriert ist, auf denen eine Vielzahl von KI-Algorithmen ausgeführt werden … Der neue GPU-Einsatz in Schweden ist ein bedeutender Meilenstein auf dem Weg zu einer wirklich offenen, globalen künstlichen Superintelligenz.“
Joe Honan, CEO von Singularitätsberechnungbeschrieb den Begin als „einen wichtigen Schritt zum Aufbau des globalen Infrastruktur-Rückgrats für künstliche Superintelligenz“ und betonte, dass der Cluster Leistung auf Unternehmensniveau mit dem Engagement des Unternehmens für Offenheit und Datensouveränität verbindet.
Erste Unternehmenskunden werden bereits an Bord geholt, weitere Kapazitätserweiterungen und neue geografische Standorte sind als Reaktion auf die Nachfrage geplant. Der schwedische Rollout ist die erste Section einer umfassenderen globalen Strategie, die darauf abzielt, leistungsstarke, souveräne KI-Rechnungen sowohl für Unternehmen als auch für dezentrale KI-Projekte allgemein verfügbar zu machen. Damit kommt ein weiterer Infra-Participant zum globalen GPU-Wettlauf hinzu, in dem Unternehmen um die Rechenressourcen konkurrieren, die sie für ihren Erfolg benötigen.
