San Sebastian, Spanien – 12. Juni 2025: Multiverse Computing hat Compactifai entwickelt, eine Komprimierungstechnologie, die die Größe von LLMs (Großsprachenmodelle) um bis zu 95 Prozent reduzieren kann und gleichzeitig die Modellleistung beibehalten wird, so das Unternehmen.
Das Unternehmen kündigte heute auch eine Investitionsrunde in Höhe von 189 Mio. € (215 Millionen US -Greenback) an.
LLMs werden in der Regel auf spezialisierten, cloud-basierten Infrastrukturen ausgeführt, die die Kosten für die Rechenzentren steigern. Traditionelle Komprimierungstechniken – Quantisierung und Beschneiden – werden diese Herausforderungen angehen, aber ihre daraus resultierenden Modelle unterdurchschnittlich die ursprünglichen LLMs. Mit der Entwicklung von Compactifai entdeckte Multiversum einen neuen Ansatz. Compactifai-Modelle sind hochkomprimierte Versionen von führenden Open-Supply-LLMs, die die ursprüngliche Genauigkeit beibehalten, 4x-12x schneller sind und eine Reduzierung der Inferenzkosten um 50 bis 80 Prozent ergeben. Diese komprimierten, erschwinglichen und energieeffizienten Modelle können in der Cloud, in privaten Rechenzentren oder im Fall von Extremely-komprimierten LLMs-direkt auf Geräten wie PCs, Telefonen, Autos, Drohnen und sogar Himbeer-Pi ausgeführt werden.
Compactifai wurde unter Verwendung von Tensor Networks erstellt, einem quanteninspirierten Ansatz zur Vereinfachung der neuronalen Netze. Tensor Networks ist ein spezialisiertes Studienfeld, das von Román Orús, Mitbegründer und Chief Scientific Officer bei Multiverse, Pionierarbeit ist. „Zum ersten Mal in der Geschichte können wir die inneren Funktionsweise eines neuronalen Netzwerks profilieren, um Milliarden von falschen Korrelationen zu beseitigen, um wirklich alle Arten von KI -Modellen zu optimieren“, sagte Orús. Komprimierte Versionen von Prime -Modellen von Prime Lama, Deekseek und Mistral sind ab sofort erhältlich, wobei bald zusätzliche Modelle kommen.
„Die vorherrschende Weisheit ist, dass das schrumpfende LLMs mit Kosten einhergeht. Das Multiversum ändert das“, sagte Enrique Lizaso Olmos, Gründerin und CEO von von Enrique Multiverse Computing. „Was als Durchbruch bei der Modellkomprimierung begann, erwies sich schnell als transformativ-unverzüglich neue Effizienzen beim KI-Einsatz und die schnelle Akzeptanz für seine Fähigkeit, die Hardwareanforderungen für den Betrieb von KI-Modellen radikal zu reduzieren. Mit einem einzigartigen Syndikat für fachkundige und strategische globale Investoren an Vorstand und Bullhound-Kapital können wir die leitende Leistung mit minimaler Leistung mit der Las-Fokussierung von Kompress-AI-Modellen, die jetzt die Auslagerung von Las-Fokus zu bieten. Infrastruktur. “
Laut Roman, Mitbegründer und geschäftsführender Companion Bullhound Capital, stellt das Compactifai von Multiversum materielle Änderungen in die KI-Verarbeitung ein, die sich mit dem globalen Bedarf an einer größeren Effizienz in der KI befassen, und ihr Einfallsreichtum ist, dass sich die europäische Souveränität beschleunigt. Römisch-Orus hat uns überzeugt, dass er und sein Workforce der Ingenieure. Ich bin auch erfreut zu sehen, dass so viele hochkarätige Investoren wie HP und Forgepoint sich für die Teilnahme beschlossen haben, ihre Teilnahme zu begrüßen.
Die Serie B wird von BullHound Capital mit Unterstützung von Weltklasse-Investoren wie HP Tech Ventures, SETGEPOPPE CAPITAL, CDP Enterprise Capital, Santander Local weather VC, Toshiba und Capital Riesgo de Euskadi-Grupo Spri geleitet. Das Unternehmen hat diesen Vorstoß mit einer Reihe internationaler und strategischer Investoren weit verbreitet. Die Investition wird die weit verbreitete Akzeptanz beschleunigen, um die massiven Kosten zu berücksichtigen, die die Roll -of -Groß -Language -Modelle (LLMs) verbieten, wodurch der KI -Inferenzmarkt von 106,03 Milliarden US -Greenback revolutioniert wird.
Tuan Tran, Präsident für Technologie und Innovation, HP Inc., kommentierte: „Bei HP sind wir bestrebt, die Zukunft der Arbeit zu leiten, indem wir Lösungen anbieten, die das Geschäftswachstum vorantreiben und die berufliche Erfüllung verbessern. Unsere Investition in Multiverse -Laptop unterstützt diesen Ambition. Durch die Erreichung der AI -Anwendungen, die AI -Anwendungen besser zugänglich machen.
Damien Henault, Geschäftsführer von Forgepoint Capital Worldwide, sagte: „Das Multiverse-Workforce hat ein zutiefst komplexes Drawback mit umfassenden Implikationen gelöst. Das Unternehmen ist intestine positioniert, um eine grundlegende Schicht des KI-Infrastruktur-Stacks zu sein. Multiversum stellt einen Quantumsprung für den globalen Einsatz und die Anwendung von AI-Modellen dar.
