(Gesponserter Gastartikel) InfiniBand ist seit Jahren die Anlaufstelle für das Hochleistungs-Computing (HPC) und die KI-Arbeitsbelastung aufgrund seiner geringen Latenz und des verlustfreien Transports. Aber wenn AI -Cluster zu Tausenden von GPUs wachsen und offene, skalierbare Infrastruktur erfordern, verschiebt sich die Branche.

Führende KI -Infrastrukturanbieter bewegen sich zunehmend von proprietär InfiniBand to Ethernet – Angetrieben von Kosten, Einfachheit und Ökosystemflexibilität. Traditioneller Ethernet fehlt jedoch eine kritische Fähigkeit: deterministische, verlustlose Leistung für KI -Workloads.

Warum traditioneller Ethernet zu kurz kommt

Ethernet wurde nicht mit KI gebaut. Obwohl sie kostengünstig und allgegenwärtig ist, schafft die paketbasierte Natur ihre Greatest-Effort-Foundation in KI-Clustern große Herausforderungen:

  • Latenzempfindlichkeit: Verteilter KI -Coaching ist sehr empfindlich gegenüber Jitter und Latenz. Normal Ethernet bietet keine Garantien und verursacht häufig Leistungsvariabilität.
  • Stauung: Gleichzeitige KI-Jobs und groß angelegte Parameter-Updates führen zu Blockierung, Stauung und unvorhersehbaren Paketabfällen.

Stoff-geplante Ethernet für KI

Stoff-geplante Ethernet Verwandelt Ethernet in ein vorhersehbares, verlustfreies, skalierbares Stoff – perfect für KI. Es verwendet Zellensprühen Und Virtuelle Ausgabewarteschlange (VOQ) Um einen geplanten Stoff zu erstellen, der eine hohe Leistung liefert und gleichzeitig die Offenheit und die Kostenvorteile von Ethernet beibehält.

Wie es funktioniert: Zellsprühen + Voq = Planung

Zellsprühen: Lastverteilung

Anstatt große Pakete zu senden, Community Cloud-ai von Drivenets zerlegt Daten in Zellen mit fester Größe und sprüht sie über mehrere Pfade. Dies vermeidet das Überladen eines einzelnen Hyperlinks auch bei Bursts und beseitigt „Elefantenströme“, die oft traditionelles Ethernet ersticken.

Vorteile des Zellsprühens:

  • Glättet Verkehrsspitzen durch perfektes Lastausgleich
  • Gewährleistet vorhersehbare Latenz
  • Vermeiden Sie Stauspots

Virtuelle Ausgangswarteschlange (VOQ): Keine Line-Blockierung mehr

In herkömmlichen Ethernet -Switches kann ein überlasteter Hafen andere blockieren und die Bandbreite verschwenden. VOQ behebt dies, indem es für jeden Ausgangsanschluss an jedem Eingangsanschluss eine dedizierte Warteschlange zugewiesen wird.

Dies stellt sicher, dass der Verkehr bei Bedarf genau in der Warteschlange gestellt wird. Der Scheduler kann dann intelligente, prodestinierende Weiterleitungsentscheidungen treffen. In Kombination mit Zellsprühen garantiert dies Equity und Isolation zwischen Verkehrsströmen – kritisch für synchronisierte KI -Arbeitsbelastungen.

Finish-to-Finish-VOQ: Verkehrskonsistenz

Finish-to-Finish-VOQ bietet einen konsistenten Service im gesamten Netzwerk. Jede virtuelle Warteschlange entspricht einem bestimmten Verkehrsfluss und Pakete nur dann übertragen, wenn die Lieferung garantiert ist.

A Kredit-basierter Durchflusskontrollmechanismus stellt sicher, dass Warteschlangen nicht überlaufen. Wenn ein Paket gesendet wird, gewährt der Change der Quelle eine Gutschrift, die angibt, wie viele weitere Pakete sie senden können. Dies verhindert den Paketverlust und gewährleistet auch bei Überlastungen einen fairen Zugang.

Geplanter Stoff: Verlustloser Ethernet für KI

Im Kern von Community Cloud-AI ist a geplanter Stoff auf Anträgen eingebaut ‚ Verteiltes disaggregiertes Chassis Architektur, ermöglicht zentralisierte Steuerung und Datenplanung.

Anstatt sich auf Reaktiv zu verlassen Stauung Steuerelemente wie ECN oder PFC berechnen die Anträge proaktiv optimale Übertragungspläne. Jede Zelle weiß genau, wann und wohin sie gehen sollen – was deterministische, verlustfreie Transport ermöglicht.

Warum es für KI wichtig ist

KI -Trainingsleistungsskalen Nur linear, wenn das Netzwerk die GPU -Geschwindigkeit entspricht. Community Cloud-AI eliminiert Verzögerungen und Inkonsistenzen, die langsamer werden Ausbildung.

Ergebnisse:

  • Höhere GPU -Nutzung
  • Schnelleres Coaching und reduzierte Kosten
  • Nahtlose Skalierung zu Tausenden von GPUs

Entscheidend ist, dass dies alles auf Normal-Ethernet-{Hardware} basiert-die Vermeidung von Anbietern und hohen proprietären Kosten.

Ethernet mit höchster Leistung für KI

DrivenTet Community Cloud-AI definiert Ethernet für die KI-Ära neu. Durch Kombination ZellensprühenAnwesend VoqAnwesend Und StoffplanungEs liefert die deterministische, verlustfreie Leistung für Excessive-Finish-HPC- und KI-Netzwerke-und erhalten gleichzeitig die Offenheit und Flexibilität von Ethernet.

Erfahren Sie mehr in unserem kommenden Webinar: Erkenntnisse aus der Bereitstellung eines Ethernet-basierten GPU-Cluster-Fabriks



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert