Künstliche Intelligenz verändert die Artwork und Weise, wie Unternehmen speichern und auf ihre Daten zugreifen. Dies liegt daran, dass herkömmliche Datenspeichersysteme so konzipiert wurden, dass einfache Befehle von einer Handvoll Benutzern gleichzeitig verarbeitet werden, während heute KI -Systeme mit Millionen von Wirkstoffen kontinuierlich zugreifen und große Datenmengen parallel verarbeiten müssen. Herkömmliche Datenspeichersysteme haben jetzt Komplexitätsschichten, die KI -Systeme verlangsamen, da Daten mehrere Ebenen durchlaufen müssen, bevor sie die grafischen Verarbeitungseinheiten (GPUs) erreichen, die die Gehirnzellen der AI sind.

Cloudian, Mitbegründer von Michael TSO ’93, SM ’93 und Hiroshi Ohta, hilft der Lagerung mit der KI-Revolution. Das Unternehmen hat ein skalierbares Speichersystem für Unternehmen entwickelt, das den Daten hilft, zwischen Speicher- und KI -Modellen nahtlos zu fließen. Das System reduziert die Komplexität, indem es paralleles Pc auf die Datenspeicherung anwendet, KI-Funktionen und -daten auf eine einzige parallele Verarbeitungsplattform konsolidiert, die skalierbare Datensätze mit direkten, hochgeschwindigen Übertragungen zwischen Speicher und GPUs und CPUs gespeichert, abgerufen und verarbeitet.

Die integrierte Speicherplattform von Cloudian vereinfacht den Prozess des Aufbaus von KI-Instruments im Bereich von kommerziellen Maßstäben und bietet Unternehmen eine Speicherfundament, die mit dem Aufstieg der KI Schritt halten kann.

„Eines der Dinge, die die Menschen an KI vermissen, ist, dass es nur um die Daten geht“, sagt TSO. „Mit 10 Prozent mehr Daten oder sogar zehnmal mehr Daten können Sie keine Verbesserung der KI -Leistung um 10 Prozent erzielen. Sie benötigen 1.000 -mal mehr Daten. In der Lage zu sein, diese Daten auf eine Weise zu speichern, die einfach zu verwalten ist, und so, dass Sie die Berechnungen einbetten können, damit Sie den Betrieb ausführen können, während die Daten eingehen, ohne die Daten zu verschieben – dorthin ist diese Branche.“

Vom MIT zur Industrie

Als Scholar am MIT in den neunziger Jahren wurde TSO von Professor William Dally in Parallel Computing eingeführt – eine Artwork Berechnung, bei der viele Berechnungen gleichzeitig auftreten. TSO arbeitete auch am parallelen Computing mit Affiliate Professor Greg Papadopoulos.

„Es conflict eine unglaubliche Zeit, denn die meisten Schulen hatten ein Tremendous-Computing-Projekt-MIT hatte vier“, erinnert sich TSO.

Als Doktorand arbeitete TSO mit dem MIT -Seniorforschungswissenschaftler David Clark zusammen, einem Pionier von Computing, der zur frühen Architektur des Internets beitrug, insbesondere zum Übertragungskontrollprotokoll (TCP), das Daten zwischen den Systemen liefert.

„Als Doktorand am MIT arbeitete ich an getrennten und intermittierenden Netzwerkoperationen für große verteilte Systeme“, sagt TSO. „Es ist lustig – 30 Jahre später, das mache ich heute noch.“

Nach seinem Abschluss arbeitete TSO in Intel’s Structure Lab, wo er Datensynchronisationsalgorithmen von Blackberry erfand. Er erstellte auch Spezifikationen für Nokia, die die Obtain -Branche der Klingelton entzündeten. Anschließend kam er zu Inktomi, einem Startup, das von Eric Brewer SM ’92, PhD ’94, mitbegründet wurde, dass Pionier für Such- und Webinhalteverteilungstechnologien leistete.

Im Jahr 2001 startete TSO mit Joseph Norton ’93, SM ’93 und anderen Gemini Cellular Applied sciences. Das Unternehmen baute die weltweit größten mobilen Messaging -Systeme, um das large Datenwachstum von Kamerafelefonen zu bewältigen. In den späten 2000er Jahren wurde Cloud Computing für Unternehmen zu einer leistungsstarken Möglichkeit, virtuelle Server zu mieten, als sie ihre Geschäftstätigkeit steigern. TSO bemerkte, dass die gesammelte Datenmenge weitaus schneller wuchs als die Geschwindigkeit der Networking. Daher beschloss er, das Unternehmen zu drehen.

„Daten werden an vielen verschiedenen Orten erstellt, und diese Daten haben ihre eigene Schwere: Sie werden Sie Geld und Zeit kosten, um sie zu verschieben“, erklärt TSO. „Das bedeutet, dass der Endstatus eine verteilte Cloud ist, die nach Edge -Geräten und -Invers geht. Sie müssen die Cloud auf die Daten bringen, nicht die Daten in die Cloud.“

TSO hat Cloudian 2012 offiziell aus Gemini Cellular Applied sciences herausgebracht, wobei der Schwerpunkt auf dem Kunden mit skalierbarem, verteilten, cloud-kompatiblen Datenspeicher hilft.

„Was wir nicht gesehen haben, als wir das Unternehmen zum ersten Mal begannen, conflict, dass AI der ultimative Anwendungsfall für Daten am Rande sein würde“, sagt TSO.

Obwohl TSOs Forschung am MIT vor mehr als zwei Jahrzehnten begann, sieht er starke Verbindungen zwischen dem, woran er heute gearbeitet hat, und der Branche heute.

„Es ist, als ob mein ganzes Leben zurückspielt, weil David Clark und ich mit getrennten und zeitweise verbundenen Netzwerken zu tun hatten, die heute Teil jedes Edge -Anwendungsfalls sind, und Professor Dally arbeitete an sehr schnellem, skalierbaren Verbindungen“, sagt TSO und bemerkt, dass Dally jetzt der Senior Vice President und Chefwissenschaftler der führenden AI -Firma NVIDIA ist. „Wenn man sich die moderne Nvidia -Chip -Architektur und die Artwork und Weise ansieht, wie sie die Kommunikation übernehmen, hat es Dallys Arbeit über sich. Mit Professor Papadopoulos habe ich an der Beschleunigung von Anwendungssoftware mit parallelem Computerhardware gearbeitet, ohne die Anwendungen neu zu bewerben.

Heute verwendet die Cloudian -Plattform eine Objektspeicherarchitektur, in der alle Arten von Daten – Dokumenten, Movies, Sensordaten – als eindeutiges Objekt mit Metadaten gespeichert werden. Die Objektspeicherung kann large Datensätze in einer Flat -Datei -Struktur verwalten, wodurch sie splendid für unstrukturierte Daten und KI -Systeme ist, konnte jedoch traditionell keine Daten direkt an AI -Modelle senden, ohne dass die Daten zuerst in das Speichersystem eines Computer systems kopiert wurden, wodurch Latenz- und Energie -Engpässe für Unternehmen erstellt werden.

Im Juli kündigte Cloudian an, sein Objektspeichersystem um eine Vektor -Datenbank zu erweitern, die Daten in einem Formular speichert, das von KI -Modellen sofort verwendet werden kann. Wenn die Daten aufgenommen werden, berechnet Cloudian in Echtzeit die Vektorform dieser Daten, um AI-Instruments wie Empfehlungsmotoren, Suche und AI-Assistenten zu betreiben. Cloudian kündigte auch eine Partnerschaft mit NVIDIA an, mit der sein Speichersystem direkt mit dem GPUs des KI -Unternehmens zusammenarbeiten kann. Laut Cloudian ermöglicht das neue System noch schnellere KI -Vorgänge und senkt die Rechenkosten.

„Nvidia hat uns vor ungefähr anderthalb Jahren kontaktiert, weil GPUs nur mit Daten nützlich sind, die sie beschäftigen“, sagt TSO. „Jetzt, da die Leute erkennen, dass es einfacher ist, die KI in die Daten zu bewegen, als um riesige Datensätze zu verschieben. Unsere Speichersysteme bitten viele KI-Funktionen ein, damit wir Daten für die KI in der Nähe der Daten vor und nach dem Prozess vorbereiten können, wo wir die Daten sammeln und speichern.“

AI-First-Speicher

Cloudian hilft etwa 1.000 Unternehmen auf der ganzen Welt, mehr Wert aus ihren Daten zu erhalten, darunter große Hersteller, Finanzdienstleister, Gesundheitsorganisationen und Regierungsbehörden.

Die Cloudian -Speicherplattform hilft einem großen Autohersteller beispielsweise mit AI, um festzustellen, wann jeder seiner Fertigungsroboter gewartet werden muss. Cloudian arbeitet auch mit der Nationwide Library of Drugs zusammen, um Forschungsartikel und -Patente zu speichern, sowie mit der nationalen Krebsdatenbank, um DNA -Sequenzen von Tumoren zu speichern – reiche Datensätze, die AI -Modelle verarbeiten könnten, um die Forschung zu entwickeln oder neue Einblicke zu gewinnen.

„GPUs conflict ein unglaublicher Enabler“, sagt TSO. „Moore’s Legislation verdoppelt die Menge an Berechnung alle zwei Jahre, aber die GPUs können die Operationen auf Chips parallelisieren, sodass Sie GPUs miteinander vernetzen und Moores Gesetz zerstören können. Diese Skala drückt die KI auf neue Ebenen der Intelligenz, aber der einzige Weg, um GPUs hart zu machen, ist, sie mit der gleichen Geschwindigkeit zu füttern.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert