Treten Sie in die Fußstapfen der kürzlich veröffentlichten Gemma 4MiniMax hat jetzt sein neuestes Modell, MiniMax M2.7, komplett offengewichtig gemacht. Vereinfacht ausgedrückt können Entwickler nun das Modell herunterladen, auf ihren eigenen Systemen ausführen und mit der Erstellung beginnen. Dies steht im Gegensatz zu dem bisherigen Modell, bei dem es sich um einen vollständig in der Cloud gehosteten KI-Dienst handelte. Das macht M2.7 natürlich sofort interessanter als ein normales Modellupdate. Es verschiebt die Geschichte von „Ohh, ein neues Modell“ zu „Second, ich kann es mir nicht völlig kostenlos holen?“
Um die Aufregung noch zu steigern, sollten Sie Folgendes wissen: M2.7 wird nicht nur als ein weiterer Chatbot angepriesen. Auch wenn es jetzt Open-Weight ist und lokal ausgeführt werden kann, werden seine Fähigkeiten in keiner Weise eingeschränkt. Laut MiniMax wurde das KI-Modell speziell für komplexe, werkzeugbasierte Agentenarbeiten entwickelt. Mit der Feuerkraft, die es mit sich bringt, wird es in der Lage sein, Aufgaben in den Bereichen Software program-Engineering und Debugging auszuführen ExcelPowerPoint und Phrase. Und wenn man sich an die Worte des MiniMax-Groups halten kann, hält der M2.7 auch bei langen, komplexen Arbeitsabläufen an den Fähigkeiten fest.
Natürlich gibt es noch weitere Options, die der neue Open-Weight MiniMax M2.7 mit sich bringt. Hier werden wir all dies untersuchen und sehen, wie sich der neue M2.7 bei alltäglichen, realen Aufgaben schlägt. Aber zunächst geht es hier mehr um das KI-Modell selbst.
Was ist MiniMax M2.7?
Bevor es zum Open-Weight-Modell kam, battle der MiniMax M2.7 bereits das neueste Excessive-Finish-Modell des Unternehmens, das für ernsthafte Agenteneinsätze gebaut und getestet wurde. Mit anderen Worten: Die Fähigkeit battle bereits vorhanden. Was sich jetzt geändert hat, ist der Zugang. Mit den geöffneten Gewichten entwickelt sich M2.7 von einem primären Modell innerhalb des MiniMax-eigenen Ökosystems zu einem Modell, das Entwickler herunterladen, ausführen und auf ihren eigenen Systemen experimentieren können. Das macht es weniger zu einer neuen Modelleinführung als vielmehr zu einer großen Erweiterung der Nutzungsrechte.
Und das ist wichtig, weil M2.7 überhaupt nicht als Gelegenheits-Chatbot positioniert wird. MiniMax präsentiert es als Modell für komplexe Arbeitsabläufe. Diese umfassen Software program-Engineering, Debugging, Arbeiten im Terminal-Stil, Büroleistungen, komplexe Fertigkeiten und lange Agenten-Workflows. Beim Open-Weight-Launch geht es additionally um mehr als nur um Bequemlichkeit – es geht um die Auswirkungen in der Praxis.
Was die Open-Weight-Launch eigentlich bedeutet
In der Praxis bedeutet dieses Replace, dass Entwickler nun Zugriff auf die M2.7-Modellgewichte erhalten und das Modell selbst ausführen können. Dadurch ist es weitaus praktischer als ein rein gehosteter KI-Dienst. MiniMax hat das Modell auf Hugging Face veröffentlicht und auch Bereitstellungshandbücher geteilt, sodass es eindeutig dazu gedacht ist, von Entwicklern direkt verwendet, getestet und umgebaut zu werden.
Das ändert sofort einiges. Sie können jetzt:
- Laden Sie die Modellgewichte herunter
- Stellen Sie es lokal in Ihrem eigenen Setup bereit
- Experimentieren Sie mit benutzerdefinierten Workflows, anstatt nur die Cloud-Schnittstelle von MiniMax zu verwenden
- Integrieren Sie es in Ihre eigenen Agentensysteme und Instruments
- Testen Sie die Software program-, Workplace- und Agentenfunktionen direkter
- Passen Sie Ihre Nutzung genau an Ihre eigenen Aufgaben und Umgebung an
Zusätzlich zu den regulären Arbeitsabläufen hebt MiniMax Stärken wie die hochauflösende Bearbeitung von Phrase, Excel und PowerPoint hervor. Das Modell soll eine starke Werkzeugnutzungsleistung und eine Fähigkeitskonformität von 97 % bei über 40 komplexen Fähigkeiten aufweisen. Wer würde bei einem lokalen Einsatz nicht gerne eine solche Feuerkraft ausprobieren?
Nicht dasselbe wie „Open-Supply“
Hier gibt es einen wichtigen Unterschied. Open-Weight bedeutet nicht automatisch Open-Supply. Offenes Gewicht bedeutet normalerweise, dass die Modellgewichte jetzt zugänglich sind. Dies bedeutet jedoch nicht unbedingt, dass auch die gesamte Trainingspipeline, Datensätze und alles, was zur Erstellung des Modells verwendet wird, offen sind.
Darüber hinaus legt die Hugging Face-Lizenz für M2.7 klar fest, dass die kommerzielle Nutzung ohne vorherige schriftliche Genehmigung von MiniMax verboten ist. Genau aus diesem Grund sollte dies sorgfältig als Open-Weight-Launch und nicht als vollständig Open-Supply-Launch beschrieben werden.
Der einfachste Weg, es auszudrücken, ist additionally: M2.7 lässt sich jetzt viel einfacher herunterladen, ausführen und aufbauen, aber es handelt sich immer noch um eine kontrollierte Veröffentlichung und nicht etwa um eine unbegrenzte Open-Supply-Model Gemma 4.
Hauptmerkmale des MiniMax M2.7 Open-Weight
Nun, auf die Gefahr hin, dass es zu Wiederholungen kommt, hier ist der Kern des neuen Modells: Es ist ein ernstzunehmendes Arbeitstier für Entwickler und Wissensarbeiter gleichermaßen. Er kann programmieren, Instruments verwenden, sich an komplexe Anweisungen halten und Aufgaben im Bürostil mit weitaus mehr Tiefe verarbeiten als ein normaler Chatbot.
Hier sind die Hauptmerkmale von MiniMax M2.7:
- Verfügbarkeit offener Gewichte: Entwickler können jetzt die Modellgewichte herunterladen und M2.7 selbst ausführen, anstatt sich nur auf MiniMax als gehosteten Dienst zu verlassen.
- Entwickelt für Agenten-Workflows: Laut MiniMax ist M2.7 eher für komplexe, werkzeugbasierte, mehrstufige Agentenarbeit als für einfache One-Shot-Eingabeaufforderungen konzipiert.
- Starke Software program-Engineering-Fähigkeiten: Das Modell ist für Debugging, Protokollanalyse, Codesicherheit, Terminalarbeit, maschinelle Lernaufgaben und vollständige Software program-Workflows im Projektstil positioniert.
- Erledigung von Büroaufgaben: MiniMax hebt seine Fähigkeit hervor, mit Phrase, Excel und PowerPoint zu arbeiten, einschließlich mehrstufiger Überarbeitungen und hochauflösender Bearbeitung.
- Hohe Kompetenztreue: Das Unternehmen meldet eine Kompetenz-Compliance-Fee von 97 % bei mehr als 40 komplexen Fähigkeiten, was darauf hindeutet, dass es darauf ausgelegt ist, auch bei langen Arbeitsabläufen den Überblick zu behalten.
- Native Unterstützung für Agententeams: Laut MiniMax kann M2.7 mit Multi-Agent-Setups arbeiten, wodurch es besser für orchestrierte Aufgabensysteme geeignet ist.
- Fähigkeit zur Selbstentwicklung: Eine seiner herausragenden Behauptungen ist, dass M2.7 dazu beitragen kann, die umgebenden Systeme zu verbessern, indem es Fehler analysiert, Änderungen vorschlägt und Bewertungsschleifen durchläuft.
- Gedacht für echte Ergebnisse, nicht nur für Chats: MiniMax präsentiert es als ein Modell, das dabei helfen kann, tatsächliche Ergebnisse wie Berichte, Modelle, Präsentationen und Workflow-fähige Ergebnisse zu erzeugen.
Benchmark-Leistung
Bei Benchmarks scheint der MiniMax M2.7 seine Positionierung ziemlich intestine zu untermauern. Das deutlichste Sign ist, dass es in den drei Bereichen, die für ein Modell wie dieses am wichtigsten sind, eine starke Leistung erbringt. Dabei handelt es sich um Softwareentwicklung, Büroproduktivität und die Verwendung von Agententools. Die von MiniMax gemeldeten Werte von 56,22 % bei SWE-Professional, 55,6 % bei VIBE-Professional und 57,0 % bei Terminal Bench 2 deuten darauf hin, dass das Modell nicht auf die einfache Codegenerierung beschränkt ist, sondern auch umfassendere Engineering- und Repo-Aufgaben bewältigen kann.
Der gleiche Development zeigt sich auch außerhalb der Codierung. Ein ELO von 1495 für GDPval-AA deutet auf eine starke Leistung bei dokumenten- und büroähnlicher Arbeit hin, während 46,3 % für Toolathon und eine gemeldete Kompetenzkonformität von 97 % bei 40 komplexen Fertigkeiten die größere Aussage von MiniMax unterstützen, dass M2.7 für lange, Device-verwendende Agenten-Workflows konzipiert ist. Mit anderen Worten: Der Maßstab hier ist nicht, dass M2.7 in einer Sache intestine ist. Es scheint, dass das Modell bei mehreren Arten realer Arbeit durchweg leistungsfähig zu sein scheint.
So greifen Sie auf das Minimax M2.7 Open-Weight zu
Nachdem das Modell jetzt als Open-Weight-Modell erhältlich ist, ist der Zugriff auf den MiniMax M2.7 mit Open-Weight-Modell ziemlich einfach. MiniMax bietet es über das offizielle Hugging Face-Repository und die GitHub-Dokumentation an, was bedeutet, dass Entwickler die Gewichte entweder direkt herunterladen oder den unternehmenseigenen Bereitstellungshandbüchern folgen können, um es in ihrem bevorzugten Setup auszuführen.
Hier sind die wichtigsten Möglichkeiten, darauf zuzugreifen:
1. Laden Sie das Modell von Hugging Face herunter
MiniMax hostet M2.7 auf seiner offiziellen Hugging Face-Seite, wo die Modellkarte, Dateien und Nutzungsdetails verfügbar sind. Sie können sich das ansehen Modell hier.
Beachten Sie, dass das Modell 229 Milliarden Parameter enthält. Wenn Sie es additionally herunterladen und lokal ausführen möchten, benötigen Sie eine umfangreiche Konfiguration. Falls Sie das noch nicht haben, können Sie über andere unten aufgeführte Methoden auf das Modell zugreifen.
2. Führen Sie es lokal mit unterstützten Inferenz-Frameworks aus
MiniMax empfiehlt ausdrücklich, M2.7 bereitzustellen über:
Zugriff darauf finden Sie über die offizielle HuggingFace-Seite für das KI-Modell.
3. Holen Sie sich die Gewichte von ModelScope
Bei Bedarf verweist MiniMax Benutzer auch auf ModelScope als weitere Quelle für die Modellgewichte. Du kannst finden Sie es hier.
4. Verwenden Sie es über NVIDIA NIM
MiniMax weist darauf hin, dass M2.7 auch verfügbar ist NVIDIA NIM Endpunkt, der für Entwickler nützlich sein kann, die diese Bereitstellungsroute bevorzugen.
5. Greifen Sie über die von MiniMax selbst gehosteten Routen darauf zu
Für Personen, die das Modell nicht herunterladen und lokal bereitstellen möchten, listet MiniMax außerdem Folgendes auf:
- MiniMax-Agent
- MiniMax-API
- Token-Plan
Praktisch mit MiniMax M2.7 Open Weight
Da es sich beim MiniMax M2.7 um ein großes Modell mit 229 Milliarden Parametern handelt und viel Rechenleistung benötigt, haben wir es nicht lokal heruntergeladen und ausgeführt. Wir haben stattdessen den HuggingFace-Inferenzpunkt verwendet, um auf das Modell zuzugreifen.
Hier ist der Prozess, dem wir gefolgt sind:
1. HF-Token generieren
Stellen Sie zunächst sicher, dass in Ihrer Umgebung ein gültiges HF_TOKEN festgelegt ist. Sie können Ihr Token auf Ihrer Einstellungsseite erhalten. Beachten Sie, dass beim Ausführen dieser Funktion möglicherweise Gebühren anfallen, die über dem kostenlosen Kontingent liegen.
Hier verwenden wir das folgende Python-Beispiel, um zu zeigen, wie das Modell distant auf HF-Inferenzanbietern ausgeführt wird.
import os
os.environ('HF_TOKEN') = 'YOUR_TOKEN_HERE'
2. Geben Sie Ihre Eingabeaufforderung ein
Sobald Sie Ihr Token in Ihre Umgebung eingefügt haben, können Sie nun damit fortfahren, das KI-Modell zur erforderlichen Aufgabe aufzufordern. Hier ist die Eingabeaufforderung, die wir für unseren Check verwendet haben:
Immediate:
import os
from openai import OpenAI
shopper = OpenAI(
base_url="https://router.huggingface.co/v1",
api_key=os.environ("HF_TOKEN"),
)
completion = shopper.chat.completions.create(
mannequin="MiniMaxAI/MiniMax-M2.7",
messages=(
{
"position": "person",
"content material": """
Write the code in python that may take a string and make this conversion given plenty of rows:
string convert(string s, int numRows);
Instance 1:
Enter: s = "PAYPALISHIRING", numRows = 3
Output: "PAHNAPLSIIGYIR"
Instance 2:
Enter: s = "PAYPALISHIRING", numRows = 4
Output: "PINALSIGYAHRPI"
Rationalization:
P I N
A L S I G
Y A H R
P I
Instance 3:
Enter: s = "A", numRows = 1
Output: "A"
Constraints:
1 <= s.size <= 1000
s consists of English letters (lower-case and upper-case), ',' and '.'.
1 <= numRows <= 1000
"""
}
),
)
3. Ausgabe
PASS: convert('PAYPALISHIRING',3) -> 'PAHNAPLSIIGYIR'
PASS: convert('PAYPALISHIRING',4) -> 'PINALSIGYAHRPI'
PASS: convert('A',1) -> 'A'
PASS: convert('ABC',2) -> 'ACB'
All assessments handed.
Wie wir sehen, battle das Modell in der Lage, die anstehende Aufgabe genau zu verstehen und die richtige Lösung zu finden. Genauer gesagt hat es das Drawback der Zig-Zag-Konvertierung verstanden und in Python die perfekte Lösung dafür entwickelt. Dies demonstriert seine Fähigkeiten in den Bereichen tiefes Denken, Logik und Codierung auf einmal.
Abschluss
MiniMax M2.7 hat mit der neuen Possibility mit offenem Gewicht eine wichtige Bühne betreten. Was es noch spannender macht, ist, dass es sich hierbei nicht um ein abgespecktes, offenes Modell mit begrenztem Nutzen handelt. M2.7 verfügt über klare Stärken in den Bereichen Codierung, Werkzeugnutzung und Büroarbeit. Mit anderen Worten: Wir haben jetzt eine völlig neue Möglichkeit, auf ein Modell zuzugreifen, das für reale, alltägliche Aufgaben entwickelt wurde.
Genau das ist der Grund, warum M2.7 herausragt. Es kombiniert Zugänglichkeit mit seriöser Leistungsfähigkeit. Und in einem Markt, in dem die leistungsstärkste KI immer noch hinter verschlossenen Türen lebt, lohnt es sich allein deshalb, ihr Aufmerksamkeit zu schenken.
Melden Sie sich an, um weiterzulesen und von Experten kuratierte Inhalte zu genießen.
