Z.ai hat GLM-4.6 angekündigt, das neueste Modell in seiner GLM-Serie, das ein umfassendes Improve darstellt. Das Modell führt Verbesserungen in Bezug auf Codierung, lang Kontextverarbeitung, Argumentation, Suchfunktionen, Schreibqualität und Agentenanwendungen ein, um die Gesamtleistung zu verbessern.

Ein zentrales Merkmal von GLM-4,6 ist die Erweiterung seines Kontextfensters auf 200.000 Token, ein Anstieg gegenüber den 128.000 Token, die in früheren Versionen verfügbar sind. Diese größere Kapazität ermöglicht es dem Modell, komplexere Agentenaufgaben zu erledigen. Die Codierungsleistung des Modells wurde ebenfalls fortgeschritten und erzielte höhere Punktzahlen für Code -Benchmarks. Es zeigt eine bessere reale Leistung in Umgebungen wie Claude Code, Cline, Roo Code und Kilo Code. Das Modell zeichnet sich in bestimmten Funktionen aus, wie beispielsweise die Erzeugung visuell polierter Entrance-Finish-Seiten. Argumentationsfunktionen zeigen klare Verbesserungen, und GLM-4,6 unterstützt die Verwendung von Instruments während der Inferenz, was zu einer stärkeren Gesamtfähigkeit beiträgt.

Das Modell zeigt eine stärkere Leistung bei der Verwendung von Instruments und der Suchbasis in Agenten-Frameworks. In Bezug auf die Textgenerierung wurde seine Schreibqualität verfeinert, um enger mit menschlichen Vorlieben für Stil und Lesbarkeit übereinzustimmen. Es spielt auch natürlicher, wenn es in Rollenspielszenarien verwendet wird. GLM-4.6 ist in Prime-Coding-Instruments erhältlich und eine Komponente des GLM-Codierungsplans. Dieser Abonnementservice mit den Plänen ab 3 USD professional Monat soll die KI-betriebene Codierung in einer Vielzahl von Anwendungen unterstützen.

Technische Spezifikationen bestätigen, dass das Modell Texteingangs- und Ausgangsmodalitäten unterstützt und eine maximale Ausgangs -Token -Grenze von 128.000 enthält. Die GLM-4,6 wurde in acht maßgeblichen Benchmarks bewertet, die mit führenden Modellen wie Claude Sonnet 4 und 4.6 entspricht. In einer wettbewerbsfähigen Bewertung innerhalb der Claude -Code -Umgebung übertraf es andere Modelle in 74 praktischen Codierungsszenarien. Diese Bewertungen zeigten auch, dass GLM-4,6 im Token-Verbrauch um mehr als 30% Effizienz erzielte.


Ausgewähltes Bildnachweis

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert