Mistral AI hat ihr neuestes und effizienteste Kleinsprachenmodell (SLM) auf den Markt gebracht-Mistral Small. Das Modell zielt darauf ab, eine robuste Leistung für verschiedene KI -Aufgaben zu liefern und gleichzeitig schnelle Reaktionszeiten beizubehalten. Hier ist alles, was Sie über Mistral Small 3 wissen müssen-seine Funktionen, Anwendungen, wie man darauf zugreift und wie es sich mit QWEN2.5, Lama-3.3 und mehr vergleicht.
Was ist Mistral Small 3?
Mistral Small 3 ist ein latenzoptimiertes Sprachmodell, das Leistung und Effizienz ausgleichen. Trotz seiner 24B -Parametergröße konkurriert es mit größeren Modellen wie Lama 3.3 70B -Anweisungen und QWEN2.5 32B -Anweisungen und bietet vergleichbare Fähigkeiten mit erheblich reduzierten Rechenanforderungen.
Small 3, das als Basismodell eingeführt wurde, ermöglicht es Entwicklern, es weiter zu schulen, indem sie Verstärkungslernen oder Feinschalenteinstimmungen verwenden. Es verfügt über ein 32.000 -Token -Kontextfenster und generiert Antworten mit 150 Token professional Sekunde Verarbeitungsgeschwindigkeit. Dieses Design macht es für Anwendungen geeignet, die eine schnelle und genaue Sprachverarbeitung erfordern.
Schlüsselmerkmale von Mistral Small 3
- Mehrsprachig: Das Modell unterstützt mehrere Sprachen, einschließlich Englisch, Französisch, Deutsch, Spanisch, Italienisch, Chinesisch, Japanisch, Koreanisch, Portugiesisch, Niederländisch und Politur.
- Agenten-zentriert: Es bietet erstklassige Agentenfunktionen mit nativem Funktionsaufruf und JSON-Ausgang.
- Erweiterte Argumentation: Das Modell verfügt über modernste Konversations- und Argumentationsfunktionen.
- Apache 2.0 Lizenz: Die offene Lizenz ermöglicht es Entwicklern und Organisationen, das Modell sowohl für kommerzielle als auch für nicht kommerzielle Zwecke zu verwenden und zu ändern.
- Systemaufforderung: Es hält eine starke Einhaltung und eine große Unterstützung für Systemaufforderungen bei.
- Tokenizer: Es verwendet einen Tekken -Tokenizer mit einer Größe von 131.000 Vokabeln.
Mistral Small 3 gegenüber anderen Modellen: Leistungsbenchmarks
Mistral Small 3 wurde in mehreren wichtigen Benchmarks bewertet, um die Leistung in verschiedenen Bereichen zu bewerten. Lassen Sie uns sehen, wie dieses neue Modell gegen GPT-4O-Mini, Lama 3.3 70b-Anweisungen, Qwen2.5 32b-Anweisungen und Gemma 2 27b ausgeführt wurde.
Lesen Sie auch: PHI 4 gegen GPT 4O-Mini: Was ist besser?
1..
Der MMLU -Benchmark bewertet die Fähigkeiten eines Modells in einer Vielzahl von Probanden, einschließlich Geisteswissenschaften, Wissenschaften und Mathematik, auf Grundstufe. In der 5-Shot-Einstellung, in der das Modell vor dem Testen von fünf Beispielen versehen ist, erreichte Mistral Small 3 eine Genauigkeit von mehr als 81%. Diese Leistung ist bemerkenswert, insbesondere wenn man bedenkt, dass Mistral 7B-Anweisungen, ein früheres Modell, in einem ähnlichen 5-Shot-Szenario 60,1% erzielte.
2. Important für Allgemeine Fragen Beantwortung (GPQA)
GPQA bewertet die Fähigkeit eines Modells, ein breites Spektrum von Fragen zu beantworten, die allgemeines Wissen und Argumentieren erfordern. Mistral Small 3 übertraf Qwen2.5-32B-Instruct, GPT-4O-Mini und Gemma-2 in GPQA, was die starke Fähigkeit bei der Umstellung verschiedener Fragen-Antworten beweist.
3. Humaneral
Der Humaneval -Benchmark misst die Codierungsfähigkeiten eines Modells, indem er verlangt, dass korrekte Codelösungen für eine bestimmte Reihe von Programmierproblemen generiert werden. Die Leistung von Mistral Small 3 in diesem Check ist quick so intestine wie Lama-3,3-70B-Struktur.
4. Mathematikbeantragung
Mathematikbeauftragte bewertet die Fähigkeiten eines Modells zur Lösung mathematischer Probleme und die Befolgung mathematischer Anweisungen. Trotz der geringen Größe und des Designs zeigt Mistral Small 3 auch in diesem Check vielversprechende Ergebnisse.
Mistral Small 3 zeigte die Leistung auf A A A A A CHRE mit größeren Modellen wie Lama 3.3 70B, während sie mehr als dreimal schneller auf derselben {Hardware} sind. Es übertraf die meisten Modelle, insbesondere bei Aufgaben des Sprachverständnisses und der Begründung. Diese Ergebnisse zeigen, dass Mistral Small 3 ein Wettbewerbsmodell in der Landschaft von AI -Sprachmodellen ist.
Lesen Sie auch: QWEN2.5-VL-Imaginative and prescient Modell: Merkmale, Anwendungen und mehr
Anwendungen von Mistral Small 3
Mistral Small 3 ist vielseitig und für verschiedene Anwendungen intestine geeignet, z. B.:
- Quick-Response-Konversationshilfe: Supreme für virtuelle Assistenten und Chatbots, bei denen schnelle, genaue Antworten unerlässlich sind.
- Funktionsfunktion mit niedriger Latenz: Aufruf: Effizient in automatisierten Workflows, die eine schnelle Funktionsausführung erfordern.
- Domänenspezifische Feinabstimmung: Kann für spezielle Bereiche wie Rechtsberatung, medizinische Diagnostik und technische Unterstützung angepasst werden und die Genauigkeit in diesen Bereichen verbessert.
- Lokale Inferenz: Bei der Quantisierung kann es auf Geräten wie einem einzelnen RTX 4090 oder einem MacBook mit 32 GB RAM ausgeführt werden, was den Benutzern zugute kommt, die smart oder proprietäre Informationen bearbeiten.
Actual-Life-Anwendungsfälle von Mistral Small 3
Hier sind einige reale Anwendungsfälle von Mistral-Small 3 in Branchen:
- Betrugserkennung in Finanzdienstleistungen: Banken und Finanzinstitute können Mistral Small 3 verwenden, um betrügerische Transaktionen zu erkennen. Das Modell kann Muster in Transaktionsdaten analysieren und verdächtige Aktivitäten in Echtzeit kennzeichnen.
- AI-gesteuerte Patienten-Triage im Gesundheitswesen: Krankenhäuser und telemedizinische Plattformen können das Modell für automatisierte Patienten -Triangierungen nutzen. Das Modell kann die Symptome von Patienteneingaben bewerten und an geeignete Abteilungen oder Pflegeeinheiten leiten.
- Befehl und Steuerung von On-Machine für Robotik und Automobil: Hersteller können Mistral Small 3 für Echtzeit-Sprachbefehle und Automatisierung in Robotik, selbstfahrenden Autos und Industriemaschinen einsetzen.
- Virtuelle Kundendienstassistenten: Unternehmen in allen Branchen können das Modell in Chatbots und virtuelle Agenten integrieren, um sofortige, kontextbezogene Antworten auf Kundenfragen zu liefern. Dies kann die Wartezeiten erheblich reduzieren.
- Stimmung und Suggestions -Analyse: Unternehmen können Mistral Small 3 verwenden, um Kundenbewertungen, Social -Media -Beiträge und Umfragantworten zu analysieren und wichtige Erkenntnisse in die Benutzerstimmung und die Markenwahrnehmung zu extrahieren.
- Automatisierte Qualitätskontrolle in der Herstellung: Das Modell kann bei der Echtzeitüberwachung von Produktionslinien helfen. Es kann Protokolle analysieren, Anomalien erkennen und mögliche Geräteausfälle für Ausfallzeiten vorhersagen.
Wie kann ich auf Mistral Small 3 zugreifen?
Mistral Small 3 ist unter der Apache 2.0 -Lizenz verfügbar, sodass Entwickler das Modell in ihre Anwendungen integrieren und anpassen können. Laut offiziellen Berichten kann das Modell von der offiziellen Web site von Mistral AI heruntergeladen oder über die folgenden Plattformen aufgerufen werden:
So können Sie auf das Mistral-Small-24B-Modell auf Kaggle zugreifen und sie nutzen:
Installieren Sie zuerst KaggleHub.
pip set up kagglehub
Geben Sie dann diesen Code ein, um loszulegen.
from transformers import AutoModelForCausalLM, AutoTokenizer
import kagglehub
model_name = kagglehub.model_download("mistral-ai/mistral-small-24b/transformers/mistral-small-24b-base-2501")
mannequin = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
immediate = "Give me a brief introduction to Mistral- AI firm"
# Tokenize the enter
inputs = tokenizer(immediate, return_tensors="pt").to(mannequin.system)
# Generate textual content
generation_output = mannequin.generate(**inputs,
max_new_tokens=100,
temperature=0.7, # Controls randomness (greater = extra random)
top_p=0.9, # Nucleus sampling (greater = extra numerous)
do_sample=True) # Permits sampling
# Decode the generated output
generated_text = tokenizer.decode(generation_output(0), skip_special_tokens=True)
print("Generated Textual content (Base Mannequin):")
print(generated_text)
Sie können das kleine 3-Modell in Ihre vorhandenen Anwendungen integrieren, indem Sie zusammen mit den OpenAI-kompatiblen APIs von AI mithilfe von AI. Darüber hinaus bietet Mistral AI Bereitstellungsoptionen über La PlateformeBereitstellung marktführender Verfügbarkeit, Geschwindigkeit und Qualitätskontrolle.
Mistral AI hat auch Pläne, sie bald auf Nvidia Nim, Amazon Sagemaker, CREQ, Databricks und Snowflake zu starten.
Praktische Assessments von Mistral Small 3
Probieren wir nun die Fähigkeiten dieses neuen Mistral -Modells aus. Dafür werden wir auf dem gemeinsamen Spielplatz 3 verschiedene Aufforderungen auf Mistral Small 3 ausprobieren und sehen, welche Antworten wir erhalten.
Aufgabe 1: Codierung
Immediate: „Angesichts eines Datensatzes mit Kundentransaktionen mit Spalten ‚CustomerID‘, ‚ProductID‘, ‚CupaSeAmount‘ und ‚PAUTUDUDEDATE‘ schreiben Sie eine Python -Funktion, um:
1. Berechnen Sie die Gesamtausgaben für jeden Kunden.
2. Finden Sie den Kunden, der am meisten ausgegeben hat.
3. Bestimmen Sie das beliebteste Produkt basierend auf dem Gesamtverkaufsbetrag.
Sie können davon ausgehen, dass die Daten ein Pandas -Datenframe sind. “
Ausgabe:
import pandas as pd
def analyze_customer_transactions(df):
# Calculate the entire spend for every buyer
total_spend_per_customer = df.groupby('CustomerID')('PurchaseAmount').sum().reset_index()
total_spend_per_customer.columns = ('CustomerID', 'TotalSpend')
# Discover the client who spent essentially the most
max_spender = total_spend_per_customer.loc(total_spend_per_customer('TotalSpend').idxmax())
max_spender_customer_id = max_spender('CustomerID')
max_spender_amount = max_spender('TotalSpend')
# Decide the preferred product based mostly on the entire gross sales quantity
total_sales_per_product = df.groupby('ProductID')('PurchaseAmount').sum().reset_index()
total_sales_per_product.columns = ('ProductID', 'TotalSales')
most_popular_product = total_sales_per_product.loc(total_sales_per_product('TotalSales').idxmax())
most_popular_product_id = most_popular_product('ProductID')
most_popular_product_sales = most_popular_product('TotalSales')
return total_spend_per_customer, max_spender_customer_id, max_spender_amount, most_popular_product_id, most_popular_product_sales
# Instance utilization:
# df = pd.DataFrame({
# 'CustomerID': (1, 2, 1, 3, 2, 1),
# 'ProductID': (101, 102, 101, 103, 102, 101),
# 'PurchaseAmount': (100, 150, 200, 50, 250, 300),
# 'PurchaseDate': ('2023-01-01', '2023-01-02', '2023-01-03', '2023-01-04', '2023-01-05', '2023-01-06')
# })
# complete
Aufgabe 2: mathematisches Denken
Immediate: „Lösen Sie dieses Drawback Schritt für Schritt: Ein Tank kann in 10 Minuten bzw. 15 Minuten mit zwei Rohren gefüllt werden. Wenn beide Rohre zusammen geöffnet werden, wie lange dauert es, um den Tank zu füllen? “
Ausgabe:
Aufgabe 3: Stimmungsanalyse
Immediate: „Analysieren Sie das Gefühl der folgenden Kundenüberprüfung:
„Ich warfare sehr aufgeregt über dieses Produkt, aber es brach innerhalb von zwei Tagen. Der Kundenservice warfare nicht hilfreich, und ich bereue meinen Kauf. ““
Ausgabe:
Abschluss
Mistral Small 3 stellt einen signifikanten Fortschritt bei der Entwicklung von KI -Modell dar und bietet eine Mischung aus Effizienz, Geschwindigkeit und Leistung. Seine Größe und Latenz sind für die Bereitstellung auf Geräten mit begrenzten Rechenressourcen geeignet, z. B. eine einzige RTX 4090 -GPU oder ein MacBook mit 32 GB RAM. Darüber hinaus fördert die Open-Supply-Verfügbarkeit im Rahmen der Apache 2.0-Lizenz die weit verbreitete Akzeptanz und Anpassung. Insgesamt scheint Mistral Small 3 ein wertvolles Instrument für Entwickler und Organisationen zu sein, die darauf abzielen, Hochleistungs-KI-Lösungen mit reduziertem Rechenaufwand implementieren.
Häufig gestellte Fragen
A. Mistral Small 3 ist ein Sprachmodell von 24 Milliarden Parametern, das für KI-Aufgaben mit geringer Latenz und hoher Effizienz optimiert ist.
A. Mistral Small 3 konkurriert mit größeren Modellen wie Lama 3.3 70b und QWEN2.5 32B, was eine ähnliche Leistung bietet, jedoch mit deutlich geringeren Rechenanforderungen.
A. Sie können auf Mistral Small 3 zugreifen:
– Offizielle Web site von Mistral AI (zum Herunterladen des Modells).
-Plattformen wie das Umarmung von Gesicht, zusammen KI, Ollama, Kaggle und Fireworks AI (für Cloud-basierte Verwendung).
-La Plateforme von Mistral AI für den Einsatz von Enterprise-Grade.
– APIs von zusammen KI und anderen Anbietern für nahtlose Integration.
A. Hier sind die Hauptmerkmale von Mistral Small 3:
-32.000 gequerdiges Kontextfenster zum Umgang mit langen Gesprächen.
– 150 Token professional Sekunde Verarbeitungsgeschwindigkeit.
– Mehrsprachige Unterstützung (Englisch, Französisch, Spanisch, Deutsch, Chinesisch usw.).
– Funktionsaufruf und JSON -Ausgangsunterstützung für strukturierte KI -Anwendungen.
-optimiert für die Inferenz mit geringer Latenz bei Verbraucher-GPUs.
A. Hier sind einige reale Anwendungsfälle von Mistral Small 3:
– Betrugserkennung in Finanzdienstleistungen.
-AI-gesteuerte Patienten-Triage im Gesundheitswesen.
-Befehl und Kontrolle des Geräts in Robotik, Automobil und Herstellung.
– Virtuelle Kundendienstassistenten für Unternehmen.
– Stimmung und Suggestions -Analyse zur Überwachung der Markenreputation.
– Automatisierte Qualitätskontrolle in industriellen Anwendungen.
A. Ja, kleine 3 können mit Verstärkungslernen oder Verstärkung fein abgestimmt werden, um sie für bestimmte Branchen oder Aufgaben anzupassen. Es wird unter der Apache 2.0 -Lizenz veröffentlicht, die kostenlose Nutzung, Änderung und kommerzielle Anwendungen ohne wesentliche Einschränkungen ermöglicht.