Die neueste Ankündigung von Mistral AI stellt DevStral 2 (123B Parameter), DevStral Small 2 (24B) und die Mistral Vibe CLI vor, einen terminal-nativen Codierungsassistenten, der für Agenten-Codierungsaufgaben entwickelt wurde. Beide Modelle sind vollständig Open Supply und auf Produktionsabläufe abgestimmt, während die neue Vibe CLI projektbezogene Bearbeitung, Codesuche, Versionskontrolle und Ausführung direkt in das Terminal bringt.

Zusammengenommen zielen diese Updates darauf ab, die Arbeitsabläufe der Entwickler zu beschleunigen, indem umfangreiche Code-Refactorings, Fehlerbehebungen und die Funktionsentwicklung stärker automatisiert werden. In diesem Leitfaden werden wir die technischen Fähigkeiten jedes Instruments skizzieren und praktische Beispiele für den Einstieg bereitstellen.

Was ist DevStral 2?

DevStral 2 ist ein dichter Transformator mit 123 Milliarden Parametern, der speziell für Software program-Engineering-Agenten entwickelt wurde. Es verfügt über ein 256K-Token-Kontextfenster, das die Analyse ganzer Code-Repositorys auf einmal ermöglicht. Trotz seiner Größe ist es viel kleiner als Konkurrenzmodelle: Beispielsweise ist DevStral 2 5x kleiner als DeepSeek v3.2 und 8x kleiner als Kimi K2 dennoch ihre Leistung erreichen oder übertreffen. Diese Kompaktheit macht DevStral 2 praktisch für den Einsatz in Unternehmen.

Hauptmerkmale von DevStral 2

Zu den wichtigsten technischen Highlights von DevStral 2 gehören:

  • SOTA-Codierungsleistung: 72,2 % im SWE-Bench-Verified-Check, was es zu einem der stärksten Open-Weight-Modelle für die Codierung macht.
  • Umgang mit großem Kontext: Mit 256K-Tokens kann es den Kontext auf Architekturebene über viele Dateien hinweg verfolgen.
  • Agenten-Workflows: Entwickelt, um „Codebasen zu erkunden und Änderungen über mehrere Dateien hinweg zu orchestrieren“, kann DevStral 2 Fehler erkennen, es mit Korrekturen erneut versuchen und Aufgaben wie Refactoring mehrerer Dateien, Fehlerbehebung und Modernisierung von Legacy-Code bewältigen.

Diese Funktionen bedeuten, dass DevStral 2 nicht nur ein leistungsstarkes Code-Vervollständigungsmodell ist, sondern ein echter Codierungsassistent, der den Standing über ein gesamtes Projekt hinweg aufrechterhält. Für Entwickler bedeutet dies schnellere und zuverlässigere automatisierte Änderungen: DevStral 2 kann beispielsweise die Dateistruktur und Abhängigkeiten eines Projekts verstehen, Codeänderungen über viele Module hinweg vorschlagen und sogar iterativ Korrekturen anwenden, wenn Assessments fehlschlagen.

Weitere Informationen zu den Preisen von DevStral 2 finden Sie hier offiziell Seite.

Setup für DevStral 2

  1. Registrieren Sie sich oder melden Sie sich bei der Mistral-Plattform an über https://v2.auth.mistral.ai/login.
  2. Erstellen Sie Ihre Organisation, indem Sie einen passenden Namen vergeben.
  3. Gehen Sie in der Seitenleiste zum Abschnitt „API-Schlüssel“ und wählen Sie einen geeigneten Plan aus.
Mistral AI Studio
  1. Sobald der Plan aktiviert ist, generieren Sie einen API-Schlüssel.
Erstellen eines neuen API-Schlüssels

Praktisch: DevStral 2

Aufgabe 1: DevStral 2 über die Mistral API (Python SDK) aufrufen

Nutzen Sie das offizielle SDK von Mistral, um Codierungsanfragen einzureichen. Wenn Sie beispielsweise möchten, dass DevStral 2 a Python Um die Geschwindigkeit zu erhöhen, können Sie Folgendes eingeben:

!pip set up mistralai 

from mistralai import Mistral 
import os
from getpass import getpass 

api_key = getpass("Enter your Mistral API Key: ") 

shopper = Mistral(api_key=api_key) 
response = shopper.chat.full( 

mannequin="devstral-2512", # right mannequin identify 
messages=( 

{"function": "system", "content material": "You're a Python code assistant."}, 
{"function": "person", "content material": ( 
"Refactor the next perform to enhance efficiency:n" 
"```pythonndef compute_numbers(n):n" 
" end result = ()n" 
" for i in vary(n):n" 
" if i % 100 == 0:n" 
" end result.append(i**2)n" 
" return resultn```" 
)} 
) 
) 

print(response.selections(0).message.content material)

Die Anfrage wird an DevStral 2 gestellt, um eine Schleifenfunktion schneller zu machen. Der KI wird die Funktion untersuchen und eine reformierte Model bereitstellen (z. B. die Verwendung von Listenverständnissen oder vektorisierten Bibliotheken empfehlen). Obwohl das Python SDK die Interaktion mit dem Modell erleichtert, können Sie bei Bedarf auch HTTP-Anfragen für den direkten API-Zugriff stellen.

Überarbeitete Funktion

Aufgabe 2: Gesichtstransformatoren mit DevStral 2 umarmen

Hugging Face verfügt über DevStral 2-Gewichte, was bedeutet, dass es möglich ist, das Modell lokal (sofern Ihre {Hardware} intestine genug ist) mit dem auszuführen Transformers Bibliothek. Um nur ein Beispiel zu nennen:

!pip set up transformers # ensure you have transformers put in 

# optionally: pip set up git+https://github.com/huggingface/transformers if utilizing bleeding-edge 
from transformers import MistralForCausalLM, MistralCommonBackend 
import torch 

model_id = "mistralai/Devstral-2-123B-Instruct-2512" 

# Load tokenizer and mannequin 
tokenizer = MistralCommonBackend.from_pretrained(model_id, trust_remote_code=True) 
mannequin = MistralForCausalLM.from_pretrained(model_id, device_map="auto", trust_remote_code=True) 

# Optionally, set dtype for higher reminiscence utilization (e.g. bfloat16 or float16) when you have GPU 
mannequin = mannequin.to(torch.bfloat16) 

immediate = ( 
"Write a perform to merge two sorted lists of integers into one sorted record:n" 
"```pythonn" 
"# Enter: list1 and list2, each sortedn"
"```" 
) 

inputs = tokenizer(immediate, return_tensors="pt").to(mannequin.gadget) 
outputs = mannequin.generate(**inputs, max_new_tokens=100) 

print(tokenizer.decode(outputs(0), skip_special_tokens=True))

Der angezeigte Codeausschnitt nutzt das „DevStral 2 Instruct“-Modell, um eine vollständige Python-Funktion ähnlich dem vorherigen Code zu erstellen.

Was ist DevStral Small 2?

DevStral Small 2 bringt die gleichen Designprinzipien auf ein viel kleineres Modell. Es verfügt über 24 Milliarden Parameter und das gleiche 256-KB-Kontextfenster, ist jedoch so dimensioniert, dass es auf einer einzelnen GPU oder sogar einer Excessive-Finish-Client-CPU ausgeführt werden kann.

Hauptmerkmale von DevStral Small 2

Zu den Hauptmerkmalen von DevStral Small 2 gehören:

  • Leicht & lokal: Mit 24B-Parametern ist DevStral Small 2 für den Einsatz vor Ort optimiert. Mistral gibt an, dass es auf einer RTX 4090-GPU oder einem Mac mit 32 GB RAM ausgeführt werden kann. Dies bedeutet, dass Entwickler lokal iterieren können, ohne dass ein Rechenzentrumscluster erforderlich ist.
  • Hohe Leistung: Beim SWE-Bench-Verified erreicht es 68,0 % und liegt damit auf Augenhöhe mit Modellen, die bis zu fünfmal so groß sind. In der Praxis bedeutet dies, dass Small 2 komplexe Codeaufgaben für viele Anwendungsfälle quick genauso intestine bewältigen kann wie größere Modelle.
  • Multimodale Unterstützung: DevStral Small 2 fügt Bildverarbeitungsfunktionen hinzu, sodass Bilder oder Screenshots in Eingabeaufforderungen analysiert werden können. Sie könnten ihm beispielsweise ein Diagramm oder ein UI-Mockup zuführen und ihn bitten, entsprechenden Code zu generieren. Dadurch ist es möglich, multimodale Codierungsagenten zu erstellen, die sowohl Code als auch visuelle Artefakte berücksichtigen.
  • Offene Apache 2.0-Lizenz: DevStral Small 2 wurde unter Apache 2.0 veröffentlicht und ist für die kommerzielle und nichtkommerzielle Nutzung kostenlos.

Aus Entwicklersicht ermöglicht DevStral Small 2 schnelles Prototyping und Datenschutz auf dem Gerät. Da die Inferenz schnell ist (auch wenn sie auf der CPU ausgeführt wird), erhalten Sie beim Testen von Änderungen enge Feedbackschleifen. Und da die Laufzeit lokal ist, muss sensibler Code Ihre Infrastruktur nie verlassen.

Praktisch: DevStral Small 2

Aufgabe: DevStral Small 2 über die Mistral API aufrufen

Genau wie DevStral 2, das Klein Das Modell ist über die Mistral-API verfügbar. Im Python SDK können Sie Folgendes tun:

!pip set up mistralai 

from mistralai import Mistral 
import os 
from getpass import getpass 

api_key = getpass("Enter your Mistral API Key: ") 

shopper = Mistral(api_key=api_key) 
response = shopper.chat.full( 
mannequin="devstral-small-2507", # up to date legitimate mannequin identify 
messages=( 
{"function": "system", "content material": "You're a Python code assistant."}, 
{"function": "person", "content material": ( 
"Write a clear and environment friendly Python perform to search out the primary " 
"non-repeating character in a string. Return None if no such " 
"character exists." 
)} 
) 
) 

print(response.selections(0).message.content material)

Ausgabe:

Methodenerklärung und Beispielanwendung

Was ist Mistral Vibe CLI?

Mistral Vibe CLI ist eine Open-Supply-Befehlszeilenschnittstelle auf Python-Foundation, die DevStral in einen Agenten verwandelt, der in Ihrem Terminal ausgeführt wird. Es bietet eine Konversations-Chat-Oberfläche, die Ihr gesamtes Projekt versteht. Vibe scannt automatisch das Verzeichnis und den Git-Standing Ihres Projekts, um Kontext zu erstellen.

Sie können Dateien mit referenzieren @autocompletionführen Sie Shell-Befehle mit exclamation(!) aus und verwenden Sie Slash-Befehle ( /config, /themeusw.), um die Einstellungen anzupassen. Denn Vibe kann „uVerstehen Sie Ihre gesamte Codebasis und nicht nur die Datei, die Sie bearbeiten“, ermöglicht es Argumentationen auf Architekturebene (z. B. das Vorschlagen konsistenter Änderungen über Module hinweg).

Hauptmerkmale von Mistral Vibe CLI

Die Hauptmerkmale von Vibe CLI sind die folgenden:

  • Interaktiver Chat mit den Instruments: Mit Vibe können Sie eine Chat-ähnliche Eingabeaufforderung erstellen, in der die Anfragen in natürlicher Sprache gestellt werden. Es verfügt jedoch über eine Reihe von Instruments zum Lesen und Schreiben von Dateien sowie zur Codesuche (grep), Versionskontrolle und Ausführen von Shell-Befehlen. Es kann beispielsweise eine Datei mit dem lesen read_file Wenden Sie mit dem Befehl einen Patch an, indem Sie ihn mit in die Datei schreiben write_file Befehl, Suche nach dem Repo mit grep usw.
  • Projektbezogener Kontext: Vibe hält das Repo standardmäßig indiziert, um sicherzustellen, dass jede Abfrage von der gesamten Projektstruktur und dem Git-Verlauf gerendert wird. Sie müssen es nicht manuell mit den Dateien beauftragen, sondern sagen einfach „Aktualisieren Sie den Authentifizierungscode“ und es wird die relevanten Module untersuchen.
  • Intelligente Referenzen: Der Verweis auf bestimmte Dateien (mit automatischer Vervollständigung) ist mit @ möglich.Pfad/zur/Datei in Eingabeaufforderungen und Befehle können direkt mit !ls oder anderen Shell-Präfixen ausgeführt werden. Darüber hinaus sind integrierte Befehle (z. B /config) kann durch verwendet werden /slash. Dies führt zu einem nahtlosen CLI-Erlebnis, komplett mit persistentem Verlauf und sogar Anpassung des Themes.
  • Scripting und Berechtigungen: Vibe bietet einen nicht interaktiven Modus (durch --prompt oder Piping), um Batch-Aufgaben für die Skripterstellung zu skripten. Sie können eine config.toml-Datei erstellen, um die Standardmodelle festzulegen (z. B. über die API auf DevStral 2 zu verweisen) und zu wechseln --auto-approve Aktivieren oder deaktivieren Sie die Instrument-Ausführung und begrenzen Sie riskante Vorgänge in sensiblen Repos.

Einrichtung für Mistral Vibe CLI

  1. Sie können Mistral Vibe CLI mit einem der folgenden Befehle installieren:
uv device set up mistral-vibe

ODER

curl -LsSf https://mistral.ai/vibe/set up.sh | sh 

ODER

pip set up mistral-vibe 
  1. Um die CLI zu starten, navigieren Sie zu Ihrem Projektverzeichnis und führen Sie dann den folgenden Befehl aus:
Vibe 
Installieren von vibe und vibe-acp für die Vibe-Codierung
  1. Wenn Sie Vibe zum ersten Mal verwenden, geschieht Folgendes:
  • Generieren Sie eine voreingestellte Konfigurationsdatei mit dem Namen config.toml unter ~/.vibe/.
  • Bitten Sie Sie um die Eingabe Ihres API-Schlüssels, falls dieser noch nicht eingerichtet ist. In diesem Fall können Sie diese Schritte befolgen, um ein Konto zu registrieren und einen API-Schlüssel zu erhalten.
  • Speichern Sie den API-Schlüssel unter ~/.vibe/.env für die Zukunft.

Praktisch: Mistral Vibe CLI

Aufgabe: Führen Sie Vibe im Skript- und Programmmodus aus

Immediate: vibe "Write a Python perform to reverse a linked record"

Ausführen von Mistral Vibe im Skriptmodus

Aufforderung zum Programmmodus:

vibe -p "Generate a SQL schema for an worker database"
Erstellen eines SQL-Schemas
Antwort im programmatischen Modus

Die Resonanz struggle zufriedenstellend.

Abschluss

DevStral 2, seine kleinere Variante, und die Mistral Vibe CLI drängen stark auf autonome Codierungsagenten und ermöglichen Entwicklern schnellere Iterationen, bessere Codeeinblicke und niedrigere Rechenkosten. DevStral 2 erledigt die Codearbeit mit mehreren Dateien im großen Maßstab, DevStral Small 2 bietet ein ähnliches Verhalten für lokale Setups und Vibe CLI macht beide Modelle mit intelligenten, kontextsensitiven Instruments direkt von Ihrem Terminal aus nutzbar.

Um sie auszuprobieren, besorgen Sie sich einen Mistral-API-Schlüssel, testen Sie die Modelle über die API oder Hugging Face und befolgen Sie die empfohlenen Einstellungen in den Dokumenten. Ganz gleich, ob Sie Codebots erstellen, CI verschärfen oder die tägliche Codierung beschleunigen, diese Instruments bieten einen praktischen Einstieg in die KI-gesteuerte Entwicklung. Während die DevStral 2-Modellreihe im LLM-Wettbewerb konkurriert, ist Mistral Vibe CLI dazu da, eine Different zu den anderen verfügbaren CLI-Alternativen zu bieten.

Häufig gestellte Fragen

Q1. Wie helfen DevStral 2, DevStral Small 2 und Vibe CLI Entwicklern?

A. Sie beschleunigen die Codierung, indem sie autonome Codenavigation, Refactoring, Debugging und projektbezogene Unterstützung direkt im Terminal ermöglichen.

Q2. Was ist der Unterschied zwischen DevStral 2 und DevStral Small 2?

A. DevStral 2 ist ein größeres, leistungsfähigeres Modell, während Small 2 ein ähnliches Agentenverhalten bietet, aber leicht genug für den lokalen Einsatz ist.

Q3. Wie fange ich an, diese Instruments zu verwenden?

A. Holen Sie sich einen Mistral-API-Schlüssel, erkunden Sie die Modelle über die API oder Hugging Face und befolgen Sie die empfohlenen Einstellungen in der offiziellen Dokumentation.

Information Science Trainee bei Analytics Vidhya
Derzeit arbeite ich als Information Science Trainee bei Analytics Vidhya, wo ich mich auf die Entwicklung datengesteuerter Lösungen und die Anwendung von KI/ML-Techniken zur Lösung realer Geschäftsprobleme konzentriere. Meine Arbeit ermöglicht es mir, fortschrittliche Analysen, maschinelles Lernen und KI-Anwendungen zu erforschen, die es Unternehmen ermöglichen, intelligentere, evidenzbasierte Entscheidungen zu treffen.
Mit einem starken Fundament in den Bereichen Informatik, Softwareentwicklung und Datenanalyse ist es mir eine Leidenschaft, KI zu nutzen, um wirkungsvolle, skalierbare Lösungen zu schaffen, die die Lücke zwischen Technologie und Geschäft schließen.
📩 Du kannst mich auch erreichen unter (e mail protected)

Melden Sie sich an, um weiterzulesen und von Experten kuratierte Inhalte zu genießen.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert