WEKApod Nitro und WEKApod Prime bieten Kunden versatile, erschwingliche und skalierbare Lösungen zur Beschleunigung von KI-Innovationen
WekaIO (WEKA), das Unternehmen für KI-native Datenplattformen, stellte zwei neue WEKApod™-Datenplattformanwendungen vor: den WEKApod Nitro für groß angelegte KI-Einsätze in Unternehmen und den WEKApod Prime für kleinere KI-Einsätze und vielseitige Hochleistungsdatenanwendungsfälle. WEKApod-Datenplattform-Home equipment bieten schlüsselfertige Lösungen, die die WEKA® Knowledge Platform-Software program mit erstklassiger Hochleistungshardware kombinieren, um eine leistungsstarke Datengrundlage für beschleunigte KI und moderne Leistung bereitzustellen.
intensive Arbeitsbelastung.
Die WEKA-Datenplattform bietet eine skalierbare KI-native Dateninfrastruktur, die speziell für die anspruchsvollsten KI-Arbeitslasten entwickelt wurde. Sie beschleunigt die GPU-Auslastung und RAG-Datenpipelines (Retrieval-Augmented Era) effizient und nachhaltig und bietet gleichzeitig eine effiziente Schreibleistung für das Checkpointing von KI-Modellen. Seine fortschrittliche Cloud-native-Architektur ermöglicht ultimative Flexibilität bei der Bereitstellung, nahtlose Datenportabilität und robuste Hybrid-Cloud-Fähigkeit.
WEKApod bietet alle Funktionen und Vorteile der WEKA Knowledge Platform-Software program in einer einfach bereitzustellenden Equipment, die sich best für Unternehmen eignet, die generative KI und andere leistungsintensive Workloads in einem breiten Branchenspektrum nutzen. Zu den wichtigsten Vorteilen gehören:
WEKApod Nitro: Bietet eine außergewöhnliche Leistungsdichte im großen Maßstab und liefert über 18 Millionen IOPS in einem einzigen Cluster. Damit eignet es sich best für KI-Implementierungen in großen Unternehmen und für die Schulung, Optimierung und Inferenz von LLM-Grundmodellen von KI-Lösungsanbietern. WEKApod Nitro ist für NVIDIA DGX SuperPOD™ zertifiziert. Die Kapazität beginnt bei einem halben Petabyte nutzbarer Daten und ist in Schritten von halben Petabyte erweiterbar.
WEKApod Prime: Bewältigt nahtlos den leistungsstarken Datendurchsatz für HPC, KI-Coaching und Inferenz und ist somit best für Unternehmen, die ihre KI-Infrastruktur skalieren und gleichzeitig Kosteneffizienz und ein ausgewogenes Preis-Leistungs-Verhältnis beibehalten möchten. WEKApod Prime bietet versatile Konfigurationen mit einer Skalierung auf bis zu 320 GB/s Lesebandbreite, 96 GB/s Schreibbandbreite und bis zu 12 Millionen IOPS für Kunden mit weniger extremen Anforderungen an die Datenverarbeitung. Dies ermöglicht es Unternehmen, Konfigurationen mit optionalen Add-ons anzupassen, sodass sie nur für das bezahlen, was sie benötigen, und eine Überbereitstellung unnötiger Komponenten vermeiden. Die Kapazität beginnt bei 0,4 PB nutzbarer Daten, mit Optionen bis zu 1,4 PB.
„Die beschleunigte Einführung generativer KI-Anwendungen und der multimodalen, durch Abruf erweiterten Generierung hat das Unternehmen schneller durchdrungen, als irgendjemand hätte vorhersagen können, und den Bedarf an erschwinglichen, hochleistungsfähigen und flexiblen Dateninfrastrukturlösungen erhöht, die extrem niedrige Latenzzeiten bieten und die Kosten drastisch senken.“ professional generiertem Token und kann skaliert werden, um den aktuellen und zukünftigen Anforderungen von Organisationen gerecht zu werden, während sich ihre KI-Initiativen weiterentwickeln“, sagte Nilesh Patel, Chief Product Officer bei WEKA. „WEKApod Nitro und WEKApod Prime bieten beispiellose Flexibilität und Auswahl und liefern gleichzeitig außergewöhnliche Leistung, Energieeffizienz und Wert, um ihre KI-Projekte überall und überall zu beschleunigen, wo sie ausgeführt werden müssen.“
Melden Sie sich für die kostenlosen insideAI-Information an Publication.
Begleiten Sie uns auf Twitter: https://twitter.com/InsideBigData1
Treten Sie uns auf LinkedIn bei: https://www.linkedin.com/firm/insideainews/
Begleiten Sie uns auf Fb: https://www.fb.com/insideAINEWSNOW
Schauen Sie bei uns vorbei YouTube!