Deepseek V3, das vom chinesischen AI-Forschungslabor Deepseek unter Excessive-Flyer entwickelt wurde, ist seit seiner ersten Open-Supply-Veröffentlichung im Dezember 2024 eine herausragende Rolle in der KI-Landschaft. Bekannt für Effizienz, Leistung und Zugänglichkeit, entwickelt es sich weiterhin schnell weiter. Das neueste Replace von Deepseek V3, mit dem mit dem Tag „Deepseek V3 0324“ gekennzeichnet conflict, wurde am 24. März 2025 eingeführt, wodurch subtile, aber wirkungsvolle Verfeinerungen gewonnen wurden. Schauen wir uns diese Updates an und probieren Sie das neue Deepseek V3 -Modell.

Minor -Model Improve: Deepseek v3 0324

  • Das Improve verbessert die Benutzererfahrung auf der offiziellen Web site, der mobilen App und dem Miniprogramm von Deepseek, wobei der „Deep Considering“ -Modus standardmäßig ausgeschaltet wurde. Dies deutet darauf hin, dass sich die Interaktion der Interaktion befindet, anstatt die Kernfunktionen zu verändern.
  • Die API -Schnittstellen- und Nutzungsmethoden bleiben unverändert und gewährleisten die Kontinuität für Entwickler. Dies bedeutet, dass vorhandene Integrationen (z. B. über Modell = ‚Deepseek-Chat‘) keine Anpassungen erfordern.
  • Es wurden keine wesentlichen architektonischen Veränderungen erwähnt, was darauf hinweist, dass dies eine Verfeinerung des bestehenden 671B-Parameter-Mischungsmischungsmischungsmischung (MOE) ist, wobei 37B professional Token aktiviert sind.
  • Verfügbarkeit: Das aktualisierte Modell befindet sich auf den offiziellen Deepseek-Plattformen (Web site, App, Mini-Programm) und reside Umarmung. Der technische Bericht und die Gewichte für „Deepseek v3 0324“ sind im Rahmen der MIT -Lizenz zugänglich.

Wie leistet Deepseek v3 0324?

Ein Benutzer auf X probierte den neuen Deepseek V3 auf meiner inneren Financial institution und hat bei allen Assessments einen großen Sprung in allen Metriken. Es ist jetzt das beste Nicht-Begrenzungsmodell, das Entthroning-Sonett 3.5.

Quelle: X

Deepseek V3 auf der Chatbot Enviornment Rangliste:

Wie kann ich auf den neuesten Deepseek V3 zugreifen?

  • Webseite: Testen Sie den aktualisierten v3 unter Deepseek.com kostenlos.
  • Cellular App: Erhältlich auf iOS und Android, aktualisiert, um die Veröffentlichung am 24. März widerzuspiegeln.
  • API: Verwenden Sie Modell = ‚Deepseek-chat‘ at api-docs.deepseek.com. Die Preisgestaltung bleibt 0,14 USD/Millionen -Enter -Token (Werbung bis zum 8. Februar 2025, obwohl eine Verlängerung nicht ausgeschlossen wurde).
  • Umarmung: Laden Sie die Gewichte „Deepseek v3 0324“ und den technischen Bericht aus herunter Hier.

Probieren wir den neuen Deepseek V3 0324 aus

Ich werde das aktualisierte Deepseek -Modell lokal und über API verwenden.

Verwenden Sie Deepseek-V3-0324 lokal mit LLM-MLX-Plugin

Installationsschritte

Folgendes benötigen Sie, um es auf Ihrem Pc auszuführen (vorausgesetzt, Sie verwenden llm CLI + MLX Backend):

!pip set up llm
!llm set up llm-mlx
!llm mlx download-model mlx-community/DeepSeek-V3-0324-4bit

Dies wird:

  1. Installieren Sie den Kern llm Cli
  2. Fügen Sie das MLX -Backend -Plugin hinzu
  3. Laden Sie das 4-Bit-quantisierte Modell herunter (DeepSeek-V3-0324-4bit)-speichereffizienter

Führen Sie eine Chat -Eingabeaufforderung lokal aus

Beispiel:

!llm chat -m mlx-community/DeepSeek-V3-0324-4bit 'Generate an SVG of a pelican using a bicycle'

Ausgabe:

Wenn das Modell erfolgreich ausgeführt wird, sollte es mit einem SVG -Snippet eines Pelicans auf einem Fahrrad reagieren – doof und herrlich.

Verwenden Sie Deepseek-V3-0324 über API

Installieren Sie das erforderliche Paket

!pip3 set up openai

Ja, obwohl Sie Deepseek verwenden, haben Sie mit der OpenAI-kompatiblen SDK-Syntax mit ihm zusammen.

Python -Skript für die API -Interaktion

Hier ist eine aufgeräumte, kommentierte Model dessen, was im Skript passiert:

from openai import OpenAI
import time

# Timing setup
start_time = time.time()

# Initialize shopper along with your DeepSeek API key and base URL
shopper = OpenAI(
    api_key="Your_api_key", 
    base_url="https://api.deepseek.com"  # That is vital
)

# Ship a streaming chat request
response = shopper.chat.completions.create(
    mannequin="deepseek-chat",
    messages=(
        {"function": "system", "content material": "You're a useful assistant"},
        {"function": "consumer", "content material": "What number of r's are there in Strawberry"},
    ),
    stream=True
)

# Deal with streamed response and accumulate metrics
prompt_tokens = 0
generated_tokens = 0
full_response = ""

for chunk in response:
    if hasattr(chunk, "utilization") and hasattr(chunk.utilization, "prompt_tokens"):
        prompt_tokens = chunk.utilization.prompt_tokens

    if hasattr(chunk, "selections") and hasattr(chunk.selections(0), "delta") and hasattr(chunk.selections(0).delta, "content material"):
        content material = chunk.selections(0).delta.content material
        if content material:
            generated_tokens += 1
            full_response += content material
            print(content material, finish="", flush=True)

# Efficiency monitoring
end_time = time.time()
total_time = end_time - start_time

# Token/sec calculations
prompt_tps = prompt_tokens / total_time if prompt_tokens > 0 else 0
generation_tps = generated_tokens / total_time if generated_tokens > 0 else 0

# Output metrics
print("nn--- Efficiency Metrics ---")
print(f"Immediate: {prompt_tokens} tokens, {prompt_tps:.3f} tokens-per-sec")
print(f"Technology: {generated_tokens} tokens, {generation_tps:.3f} tokens-per-sec")
print(f"Complete time: {total_time:.2f} seconds")
print(f"Full response size: {len(full_response)} characters")

Ausgabe

### Ultimate Reply
After fastidiously inspecting every letter in "Strawberry," we discover that the letter 'r' seems **3 occasions**.

**Reply:** There are **3 r's** within the phrase "Strawberry."

--- Efficiency Metrics ---
Immediate: 17 tokens, 0.709 tokens-per-sec
Technology: 576 tokens, 24.038 tokens-per-sec
Complete time: 23.96 seconds
Full response size: 1923 characters

Hier finden Sie den vollständigen Code und die Ausgabe.

Erstellen einer Web site für digitales Advertising mit Deepseek-V3-0324

Mit Deepseek-V3-0324, einem erweiterten Sprachmodell, generieren Sie automatisch eine digitale Advertising-Touchdown-Seite-modern, schlank und klein im Bereich, indem Sie einen prompt-basierten Codegenerierungsansatz verwenden.

!pip3 set up openai
# Please set up OpenAI SDK first: `pip3 set up openai`

from openai import OpenAI
import time

# Report the beginning time
start_time = time.time()  # Add this line to initialize start_time

shopper = OpenAI(api_key="Your_API_KEY", base_url="https://api.deepseek.com")

response = shopper.chat.completions.create(
    mannequin="deepseek-chat",
    messages=(
        {"function": "system", "content material": "You're a Web site Developer"},
        {"function": "consumer", "content material": "Code a contemporary small digital advertising Touchdown web page"},
    ),
    stream=True  # This line makes the response a stream of occasions
)

# Initialize variables to trace tokens and content material
prompt_tokens = 0
generated_tokens = 0
full_response = ""

# Course of the stream
for chunk in response:
    # Monitor immediate tokens (often solely in first chunk)
    if hasattr(chunk, "utilization") and hasattr(chunk.utilization, "prompt_tokens"):
        prompt_tokens = chunk.utilization.prompt_tokens

    # Monitor generated content material
    if hasattr(chunk, "selections") and hasattr(chunk.selections(0), "delta") and hasattr(chunk.selections(0).delta, "content material"):
        content material = chunk.selections(0).delta.content material
        if content material:
            generated_tokens += 1
            full_response += content material
            print(content material, finish="", flush=True)

# Calculate timing metrics
end_time = time.time()
total_time = end_time - start_time

# Calculate tokens per second
if prompt_tokens > 0:
    prompt_tps = prompt_tokens / total_time
else:
    prompt_tps = 0

if generated_tokens > 0:
    generation_tps = generated_tokens / total_time
else:
    generation_tps = 0

# Print metrics much like the screenshot
print("nn--- Efficiency Metrics ---")
print(f"Immediate: {prompt_tokens} tokens, {prompt_tps:.3f} tokens-per-sec")
print(f"Technology: {generated_tokens} tokens, {generation_tps:.3f} tokens-per-sec")
print(f"Complete time: {total_time:.2f} seconds")
print(f"Full response size: {len(full_response)} characters")

Ausgabe:

Die Seite ist für eine Agentur für digitales Advertising mit dem Namen „Nexagrowth“ verwendet. Sie verwendet ein modernes, sauberes Design mit einer sorgfältig ausgewählten Farbpalette Das Structure reagiert und verwendet zeitgenössische Webdesign-Techniken, die die Navigation oben auf der Seite fixiert ist. Der Heldenabschnitt soll sofort die Aufmerksamkeit mit einer großen Überschrift und einer Handlungs-Handlungs-Schaltflächen erregen.

Sie können die Web site anzeigen Hier.

Kontext aus älteren Updates (Basislinie nach dem Dezember 2024)

Um zu klären, was Neue ist, finden Sie hier eine kurze Zusammenfassung der V3 -Basislinie vor dem Replace vom 24. März:

  • Erste Veröffentlichung: Deepseek V3 wurde mit 671B -Parametern eingeführt, die auf 14,8 -t -Token für 5,5 bis 5,58 Mio. USD mit 2,664 Mio. H800 -GPU -Stunden trainiert wurden. Es führte latente Aufmerksamkeit (MLA), Multi-Tooken-Vorhersage (MTP) und zusätzliche Verlustverluste ein und erreichte 60 Token/Sekunden und übertriffte Lama 3.1 405b.
  • Nach der Ausbildung: Die Argumentationsfunktionen von Deepseek R1 wurden in V3 destilliert, wodurch die Leistung durch überwachte Feinabstimmung (SFT) und Verstärkungslernen (RL) verbessert wurde und mit nur 0,124 m zusätzlichen GPU-Stunden abgeschlossen wurde.
  • Das März -Replace baut auf dieser Stiftung auf und konzentriert sich auf die Benutzerfreundlichkeit und die gezielten Leistungsverbots und nicht auf eine vollständige Überholung.

Abschluss

Obwohl die Leute dieses Replace als minderjährig bezeichnen, hat die Gesamtleistung und die Geschwindigkeit von Deepseek V3 die Ruhe erheblich verbessert. Probieren Sie es aus und lassen Sie mich Ihre Gedanken über den neuen Deepseek V3 0324 im Kommentarbereich unten wissen.

Bleib dran Analytics Vidhya Weblog Für mehr solche Inhalte!

Hallo, ich bin Nitika, ein technisch versierter Content material-Ersteller und Vermarkter. Kreativität und neue Dinge lernen natürlich für mich. Ich habe Fachkenntnisse bei der Erstellung von ergebnisgesteuerten Inhaltsstrategien. Ich bin mit search engine optimization -Administration, Key phrase -Operationen, Webinhalten, Kommunikation, Inhaltsstrategie, Bearbeitung und Schreiben intestine vertraut.

Melden Sie sich an, um weiter zu lesen und Experten-Kuratinhalte zu genießen.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert