San Francisco, 20. Februar 2025-AI Acceleration Cloud Complany Collectively kündigte AI eine von Basic Catalyst in der Serie B in Höhe von 305 Millionen US-Greenback geführte und von Prosperity 7 Co-Anleitung 7.

In der Runde nahmen institutionelle und strategische Anleger teil, darunter Salesforce Ventures, Damac Capital, Nvidia, Kleiner Perkins, März -Kapital, Emergence Capital, Lux Capital, SE Ventures, Greycroft, Coatue, Definition, Cadenza Ventures, Lengthy Journey Ventures, Courageous Capital, Scott, Scott, Scott, Scott, Scott, Scott, Scott, Scott, Scott, Scott, Scott, Scott, Scott Banister und Technologie -Pionier John Chambers.

Die Finanzierungsrunde, die das Unternehmen mit 3,3 Milliarden US -Greenback schätzt, kommt zusammen, während AI zusammen Pläne für eine beispiellose Erweiterung seiner KI -Beschleunigungswolke mit Plänen für einen großen Einsatz von NVIDIA Blackwell GPUs enthüllt. Diese strategische Investition wird die Place von AI weiter als führende Finish-to-Finish-Plattform für die Aufstellung mit Open-Supply-Modellen beschleunigen. Zusammen haben die inferenz- und Feinabstimmungsfähigkeiten von AI von AI bereits verändert Erstellen Sie moderne AI -Anwendungen.

„Vipul und Workforce haben eine unglaubliche Tech -Plattform und ein unglaubliches Geschäft aufgebaut, das sich in weniger als zwei Jahren als dominierender Spieler in der AI -Infrastruktur entwickelt hat. Ich wurde ihnen vorgestellt, als ich in ihre erste Engelsrunde investierte und die Entwicklung eines Produkts aus erster Hand miterlebt habe, das heute viele Fortune 100 -Kunden zum Trainen, Flossen und Fixern in Modellen im Maßstab verwenden. “ sagte Marc Bhargava, Geschäftsführer bei Basic Catalyst. „Gemeinsam ist die Mission von AI, die vollständige Stack-AI-Cloud zu sein, wirklich inspirierend, und Basic Catalyst bringt das Know-auf und der Ehrgeiz, dieses Ziel zu beenden.“

Open-Supply-Modelle wie Deepseek-R1 und Metas Lama haben sich als beeindruckende Alternativen zu proprietären Lösungen herausgestellt, die eine entscheidende Veränderung in der KI-Landschaft markieren. Zusammen hat sich AI als endgültige Plattform etabliert, die diese Transformation für Entwickler, KI-native Unternehmen und globale Unternehmen anträgt, um Open Supply AI mit unvergleichlicher Geschwindigkeit und Effizienz zu nutzen. Zusammen liefert AI die schnellste Deepseek-R1- und Lama-Inferenz im Produktionsmaßstab durch seine sichere, non-public Infrastruktur- und Forschungsinnovationen.

„KI verändert jede Branche, schafft beispiellose Effizienz und ermöglicht völlig neue Produktklassen. Wir haben ein Cloud-Unternehmen für diese AI-First-Welt aufgebaut, in der hochmoderne Open-Supply-Modelle und Hochleistungsinfrastrukturen mit Grenzforschung in Bezug auf KI-Effizienz und Skalierbarkeit kombiniert werden “, sagte AI-CEO Vipul Ved Prakash zusammen. „Unsere KI-Beschleunigungs-Cloud bietet Unternehmen in einzigartiger Weise die Leistung, Sicherheit und Funktionalität, die erforderlich sind, um Frontier-Modelle zu schulen und KI-Anwendungen im Produktionsmaßstab mit unglaublicher Kosteneffizienz aufzubauen. Mit dieser Investition werden wir unsere Mission beschleunigen, Open Supply KI für KI -Entwickler und Kunden weltweit zugänglich zu machen. “

Zusammen aiDie Plattform umfasst die gesamte KI-Lebenszyklus eindeutig und liefert Inferenzlösungen für Unternehmensqualität. Coaching und Feinabstimmung für Frontier-Fundamentsmodelle; Agenten-Workflows mit integrierter Code-Interpretation; und synthetische Datenerzeugung. Es ermöglicht Unternehmen, vollständige KI -Anwendungen mit Leistung, Sicherheit, Genauigkeit und Modellbesitz zu erstellen, die Unternehmen fordern. Die Plattform unterstützt über 200 Open-Supply-Modelle in allen Modalitäten-Chat, Picture, Audio, Imaginative and prescient, Code und Einbettungen-. Die Plattform wird von der proprietären Inferenz-Engine von AI zusammengetrieben und basiert auf Forschungsinnovationen wie Flashattention-3-Kern und fortschrittlichen Quantisierungstechniken. Es liefert 2-3x schneller als die heutigen Hyperscaler-Lösungen.

Das Unternehmen verändert die KI -Infrastrukturlandschaft weiterhin mit 200 MW gesicherter Leistungskapazität und setzt optimierte Cluster des Nvidia Blackwell -GPUs in mehreren Rechenzentren in Nordamerika ein. Zusammen zementiert die Partnerschaft von AI mit Hypertec, um einen Cluster von 36.000 NVIDIA GB200 NVL72-GPUs zusammenzustellen, seine Place an der Spitze der AI-Cloud-Anbieter weiter. Im Zentrum dieser Infrastruktur liegt die Zusammenstellung der Kernel zusammen, ein Durchbruch in der AI -Systemoptimierung, die unter der Führung des Chefwissenschaftlers Tri Dao, dem Schöpfer der Flashattention, entwickelt wurde. Dieser proprietäre Technologie -Stack liefert 24% schnellere Schulungsvorgänge und senkt die Kosten für Kunden wie Pika Labs erheblich.

„Die jüngsten Entwicklungen in Open Supply KI veranschaulichen die Bedeutung der Arbeit von AI für den Zugang zu Modellen wie diese sicher, zugänglich und für Organisationen hier in den USA und auf der ganzen Welt“, sagte Abhishek Shukla, Geschäftsführer von Prosperity7 Ventures. „Gemeinsam die Fähigkeit von AI, dies zu tun, während der Prozess beschleunigt, die Effizienzsteigerungen erhöht und die Kosten senken, macht AI zu einer außergewöhnlichen Ressource für selbst große, globale Unternehmen.“

Zusammen setzt das Forschungslabor von AI weiterhin Pioniermethoden an der Schnittstelle der KI- und Systemforschung mit Open -Supply -Beiträgen wie Mischung aus Agenten, Medusa, Sequoia, Hyänen und Mamba vor, die die Innovation in der gesamten Branche vorantreiben.

Die Führungsposition des Unternehmens wurde in außerordentlichem Tempo durch Meilensteinerleistungen verstärkt. Allein im Jahr 2024 hat AI zusammen ihre Benutzerbasis auf über 450.000 AI -Entwickler ausgebaut und hat mit Dell, Hypertec, Nvidia und Meta zusammengearbeitet. Es stellte Deepseek-Modelle in nordamerikanischen Rechenzentren mit vollständigen Datenschutzkontrollen ein, startete die Collectively Enterprise-Plattform und die AWS-Marktverfügbarkeit und arbeitete mit Cartesia zusammen, um die ultra-niedrige Latenz-Sprach-AI durch die Integration von Sonic-Modellen zu ermöglichen. Zusammen kürzlich AI erworbene Codesandbox Mit Plänen, seine Fähigkeiten direkt in KI für eingebaute Code-Interpretation zu integrieren-eine Branche zuerst. Das Unternehmen stärkte sein Führungsteam auch mit wichtigen Einstellungen, einschließlich des Veteranen Kai Mak als CRO und dem Forschungspionier James Zou.



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert