Anbieter von Speichersystemen präsentieren revolutionary Lösungen, um mit schnelleren Beschleunigern Schritt zu halten.

MLCommons® gab Ergebnisse für seinen Industriestandard bekannt MLPerf® Storage v1.0 Benchmark-Suitedas darauf ausgelegt ist, die Leistung von Speichersystemen für Workloads des maschinellen Lernens (ML) auf architekturneutrale, repräsentative und reproduzierbare Weise zu messen. Die Ergebnisse zeigen, dass ML-Systemanbieter angesichts der Weiterentwicklung der Beschleunigertechnologie und der immer größer werdenden Datensätze sicherstellen müssen, dass ihre Speicherlösungen mit den Rechenanforderungen Schritt halten. Dies ist eine Zeit des schnellen Wandels in ML-Systemen, in der Fortschritte in einem Technologiebereich neue Anforderungen in anderen Bereichen mit sich bringen. Für ein leistungsstarkes KI-Coaching sind heutzutage sowohl große als auch schnelle Speichersysteme erforderlich, damit der Zugriff auf gespeicherte Daten nicht zum Engpass im gesamten System wird. Mit den Benchmark-Ergebnissen der MLPerf Storage-Benchmark-Model 1.0 wird deutlich, dass Anbieter von Speichersystemen Innovationen entwickeln, um dieser Herausforderung zu begegnen.

Der Speicher-Benchmark der Model 1.0 geht neue Wege

Der MLPerf Storage-Benchmark ist der erste und einzige offene, transparente Benchmark zur Messung der Speicherleistung in einer Vielzahl von ML-Trainingsszenarien. Es emuliert den Speicherbedarf über mehrere Szenarien und Systemkonfigurationen hinweg und deckt eine Reihe von Beschleunigern, Modellen und Arbeitslasten ab. Durch die Simulation der „Denkzeit“ der Beschleuniger kann der Benchmark genaue Speichermuster generieren, ohne dass das eigentliche Coaching ausgeführt werden muss, wodurch es für alle zugänglicher wird. Der Benchmark konzentriert den Take a look at auf die Fähigkeit eines bestimmten Speichersystems, mit dem Tempo Schritt zu halten, da die simulierten Beschleuniger ein erforderliches Auslastungsniveau aufrechterhalten müssen.

Der Benchmark umfasst drei Modelle, um sicherzustellen, dass unterschiedliche Muster des KI-Trainings getestet werden: 3D-UNet, Resnet50 und CosmoFlow. Diese Workloads bieten eine Vielzahl von Stichprobengrößen, die von Hunderten von Megabyte bis zu Hunderten von Kilobyte reichen, sowie weitreichende simulierte „Denkzeiten“ von einigen Millisekunden bis zu einigen hundert Millisekunden.

Der Benchmark emuliert die NVIDIA A100- und H100-Modelle als Vertreter der aktuell verfügbaren Beschleunigertechnologien. Der H100-Beschleuniger reduziert die Rechenzeit professional Batch für die 3D-UNet-Arbeitslast um 76 % im Vergleich zum früheren V100-Beschleuniger in der v0.5-Runde und macht aus einer normalerweise bandbreitenempfindlichen Arbeitslast eine viel latenzempfindlichere Arbeitslast .

Darüber hinaus bietet MLPerf Storage v1.0 Unterstützung für verteiltes Coaching. Verteiltes Coaching ist ein wichtiges Szenario für den Benchmark, da es eine gängige Praxis für das schnellere Coaching von Modellen mit großen Datensätzen darstellt und besondere Herausforderungen für ein Speichersystem mit sich bringt, nicht nur bei der Bereitstellung eines höheren Durchsatzes, sondern auch bei der gleichzeitigen Bereitstellung mehrerer Trainingsknoten .

Die Benchmark-Ergebnisse von V1.0 zeigen eine Leistungsverbesserung in der Speichertechnologie für ML-Systeme

Das breite Spektrum der für den Benchmark eingereichten Workloads spiegelt die große Bandbreite und Vielfalt verschiedener Speichersysteme und -architekturen wider. Dies ist ein Beweis dafür, wie wichtig ML-Workloads für alle Arten von Speicherlösungen sind, und zeigt die aktive Innovation, die in diesem Bereich stattfindet.

„Die Ergebnisse von MLPerf Storage v1.0 zeigen eine Erneuerung im Design der Speichertechnologie“, sagte Oana Balmau, Co-Vorsitzende der MLPerf Storage-Arbeitsgruppe. „Im Second scheint es keinen Konsens über die ‚Finest-of-Breed‘-technische Architektur für die Speicherung in ML-Systemen zu geben: Die Einreichungen, die wir für den v1.0-Benchmark erhalten haben, verwendeten eine breite Palette einzigartiger und kreativer Ansätze zur Bereitstellung hochwertiger Lösungen. Geschwindigkeit, Massenspeicherung.“

Die Ergebnisse im verteilten Trainingsszenario zeigen das empfindliche Gleichgewicht zwischen der Anzahl der Hosts, der Anzahl der simulierten Beschleuniger professional Host und dem Speichersystem, um alle Beschleuniger mit der erforderlichen Auslastung zu bedienen. Das Hinzufügen weiterer Knoten und Beschleuniger zur Bereitstellung immer größerer Trainingsdatensätze erhöht die Durchsatzanforderungen. Verteiltes Coaching fügt eine weitere Wendung hinzu, da in der Vergangenheit unterschiedliche Technologien – mit unterschiedlichen Durchsätzen und Latenzen – zum Verschieben von Daten innerhalb eines Knotens und zwischen Knoten verwendet wurden. Die maximale Anzahl an Beschleunigern, die ein einzelner Knoten unterstützen kann, wird möglicherweise nicht durch die eigene {Hardware} des Knotens begrenzt, sondern durch die Fähigkeit, in einer verteilten Umgebung ausreichend Daten schnell an diesen Knoten zu übertragen (bis zu 2,7 GiB/s professional emuliertem Beschleuniger). Speichersystemarchitekten haben jetzt nur noch wenige Design-Kompromisse zur Auswahl: Die Systeme müssen einen hohen Durchsatz und eine geringe Latenz haben, um ein großes KI-Trainingssystem mit Spitzenlast laufen zu lassen.

„Wie erwartet hat die neue, schnellere Beschleuniger-{Hardware} die Messlatte für den Speicher deutlich höher gelegt und deutlich gemacht, dass die Speicherzugriffsleistung zu einem entscheidenden Faktor für die gesamte Trainingsgeschwindigkeit geworden ist“, sagte Curtis Anderson, Co-Vorsitzender der MLPerf Storage-Arbeitsgruppe. „Um zu verhindern, dass teure Beschleuniger ungenutzt bleiben, setzen Systemarchitekten auf den schnellsten Speicher, den sie beschaffen können – und Speicheranbieter reagieren als Reaktion darauf mit Innovationen.“

MLPerf Storage v1.0

Der MLPerf Storage-Benchmark wurde durch einen kollaborativen Entwicklungsprozess von mehr als einem Dutzend führender Anbieter von Speicherlösungen und akademischen Forschungsgruppen erstellt. Die Open-Supply- und peer-reviewte Benchmark-Suite bietet gleiche Wettbewerbsbedingungen, die Innovation, Leistung und Energieeffizienz für die gesamte Branche vorantreiben. Es bietet außerdem wichtige technische Informationen für Kunden, die KI-Trainingssysteme beschaffen und optimieren.

Die v1.0-Benchmark-Ergebnisse einer breiten Palette von Technologieanbietern zeigen, dass die Branche die Bedeutung leistungsstarker Speicherlösungen anerkennt. MLPerf Storage v1.0 enthält über 100 Leistungsergebnisse von 13 einreichenden Organisationen: DDN, Hammerspace, Hewlett Packard Enterprise, Huawei, IEIT SYSTEMS, Juicedata, Lightbits Labs, MangoBoost, Nutanix, Simplyblock, Volumez, WEKA und YanRong Tech.

„Wir freuen uns, dass so viele große und kleine Speicheranbieter am ersten v1.0-Speicher-Benchmark seiner Artwork teilnehmen“, sagte David Kanter, Leiter von MLPerf bei MLCommons. „Es zeigt sowohl, dass die Branche die Notwendigkeit erkennt, bei Speichertechnologien weiterhin Innovationen voranzutreiben, um mit dem Relaxation des KI-Technologie-Stacks Schritt zu halten, als auch, dass die Fähigkeit, die Leistung dieser Technologien zu messen, für den erfolgreichen Einsatz von ML-Schulungen von entscheidender Bedeutung ist.“ Systeme. Als vertrauenswürdiger Anbieter offener, fairer und transparenter Benchmarks stellt MLCommons sicher, dass Technologieanbieter die Leistungsziele kennen, die sie erreichen müssen, und Verbraucher ML-Systeme beschaffen und optimieren können, um ihre Nutzung – und letztendlich ihre Kapitalrendite – zu maximieren.“

Sehen Sie sich die Ergebnisse an

Um die Ergebnisse für MLPerf Storage v1.0 anzuzeigen, besuchen Sie bitte die Ergebnisse des Speicher-Benchmarks.

Melden Sie sich für die kostenlosen insideAI-Information an E-newsletter.

Begleiten Sie uns auf Twitter: https://twitter.com/InsideBigData1

Treten Sie uns auf LinkedIn bei: https://www.linkedin.com/firm/insideainews/

Begleiten Sie uns auf Fb: https://www.fb.com/insideAINEWSNOW



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert