Seattle, 30. Juli 2025 – Ravel, eine IT- und Workload Orchestration Software program Firm, kündigte heute Aktualisierungen des Flaggschiffs an, das Ravel orchestrate KI sowie den Begin von Lösungen zur Nutzung von Supermicro -Turnkey -KI -Workload -Lösung nutzt.

Die Produkte sollen die Einführung skalierbarer KI für Organisationen in Branchen wie Rechenzentren, Content material Creation Studios, Forschungslabors und Innovationszentren sowie große Unternehmen vereinfachen.

Da die Einführung von AI und GGNerative KI weiterhin Geschäft mit den Geschäftstätigkeiten, Datenwissenschaftlern und Ingenieuren und Kreativteams verändert, müssen sich die Komplexität des Bereitstellens und der Verwaltung von Rechenintensive KI-Workloads mit zunehmender Komplexität befassen. Die neuesten Aktualisierungen von Ravel befassen diese Herausforderungen direkt, indem Sie intelligente Orchestrierungslösungen, die speziell gebaut wurden, zur Vereinfachung der Bereitstellung, Ausführung und Überwachung in der neuen Ära von Hybrid, Multi-Cloud und Edge AI anbieten.

„Traditionelles IT -Werkzeug brechen unter dem Gewicht der modernen KI“, sagte Denise Muyco, Chief Govt Officer bei Ravel. „Die orchestrieren KI verwandelt sich in die einheitlichen, skalierbaren Pipelines, die für Kreative, Forscher, Ingenieure und Enterprise-Ops-Groups in einheitliche, skalierbare Pipelines ausgestattet sind, unabhängig davon, ob sie gerade erst mit kleinen Bergen in kleinem Maßstab beginnen oder renoviert wurden.

Ravel orchestrieren KI:

  • Straffende KI -Workflow -Orchestrierung – definieren, planen und führen Sie komplexe Workloads und Infrastruktur aus einer einzigen Scheibe der Glasgrenzfläche aus.
  • Skalierbare Modellbereitstellung in jeder Infrastruktur-Automatisieren Sie die Bereitstellung in Cloud-, On-Prem- und Hybrid-Umgebungen-nein manuelles Setup erforderlich.
  • Intelligente Ressourcenoptimierung – entspricht dynamisch den Jobs mit optimalen CPUs/GPUs, um eine bessere Leistung, Effizienz, Lastausgleich und Energieeffizienz zu erzielen.
  • Native Framework -Integration – funktioniert nahtlos mit Tensorflow, Pytorch, Umarmungsgesicht, bequemer und mehr – Out der Field.
  • Good Job -Warteschlange und -Priorisierung – Planen und Priorisierung von Arbeitsplätzen und Priorisierung auf der Grundlage von Richtlinien, der Arbeitsbelastung und der Verfügbarkeit von Ressourcen.
  • Zentralisierte Überwachung und Administration – Verfolgen Sie Jobs, Ressourcen und Leistung in Echtzeit – excellent für verteilte Groups und gemeinsame Infrastruktur.
  • Multi-Benutzer-Zugriffs- und Rollensteuerungen-sichere Arbeitsbereiche mit anpassbaren Rollen und Berechtigungen, um Benutzer zu isolieren und Ressourcen zu schützen.

Um die KI-Einführung noch weiter zu vereinfachen und zu beschleunigen, haben Ravel und Supermicro an einer vor integrierten und Ai-optimierten Infrastrukturlösung zusammengearbeitet, die Supermicro-Systeme kombiniert und mit AMD Ryzen ThreadRipper Professional-CPUs und Nvidia RTX Professional 6000 Blackwell Workstation Version GPUs mit Ravel Orchestrate AI. Die Supermicro X Ravel Turnkey AI Workload-Lösung ist unternehmungsfristig und bietet Plug-and-Play-Bereitstellung und modulare Skalierbarkeit von Workstation bis Datcenter mit minimalem Setup und maximaler Leistung. Ein frühes Design der Lösung gewann in der KI/ML -Kategorie „Produkt des Jahres“ bei NAB 2025.

„AMD ermöglicht die nächste Welle der KI-Innovation durch Hochleistungs-Computing, die vom Desktop nach Daten skaliert werden“, sagte Andy Parma, Segmentdirektor der MNC Workstation CPU, AMD. „Mit AMD Ryzen Threadripper Professional-Prozessoren, die die Supermicro X Ravel-Lösung anführen, erhalten die Kunden eine robuste, fertige Infrastruktur, die die KI-Workflows optimiert und Zeit auf Einsicht beschleunigt.“

Ravel orchestrate KI ist jetzt im frühen Zugriff erhältlich und kann als Teil der Supermicro X Ravel schlüsselfertigen KI -Workload -Lösung direkt durch getestet werden Ravel und seine Associate: Cinesys, ECS und Augur Tech.



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert