
Bild von Editor | ChatgptWir leben in einer Zeit, in der Großsprachmodelle (LLMs) die Artwork und Weise, wie wir arbeiten, dominieren und beeinflussen. Selbst lokale LLMs, die für die Codierung fein abgestimmt sind, sind immer effektiver geworden und ermöglichen es Entwicklern und Datenfachleuten, sie als persönliche Kodierungsassistenten in ihren eigenen Umgebungen zu verwenden. Dieser Ansatz ist häufig vorzuziehen, da diese Modelle die Datenschutzverbesserung verbessern und die API -Kosten senken können.
Diese lokalen Codierungs-LLMs haben jetzt eine Vielzahl von Anwendungen, die vorher nicht praktisch waren, da sie praktische AI-Unterstützung direkt in den Entwickler-Workflow einbringen. Dies ermöglicht wiederum Inline -Autoperation, Code -Debugging und sogar Argumentation über Projekte hinweg. Es gibt viele Möglichkeiten, eine zu führen LLM vor Ort Wenn Sie interessiert sind, probieren Sie sie aus.
Selbst für Nichtentwickler oder Personen ohne technische Hintergründe ist in der lokalen Szene ein neuer Development namens Vibe-Codierung aufgrund lokaler Codierungs-LLMs entstanden, die Sie versuchen können Meister Sie sich. Für Datenwissenschaftler können Sie sich auch einige Projekte ansehen, mit denen Sie aufbauen können Vibe -Codierung.
Da lokale Codierungs -LLMs prominenter werden, ist es hilfreich zu wissen, welche Optionen Sie selbst ausführen können. In diesem Artikel untersuchen wir einige der besten lokalen Codierungs -LLMs, die in lokale Workflows passen, und zeigen, warum sie sich von den anderen abheben.
# 1. GLM-4-32B-0414
Die Zhipu AI der Universität von Tsinghua hat kürzlich eine neue Open-Supply-Modellserie mit dem Namen namens GLM-4-32B-0414ein 32-Milliarden-Parameter-Modell, das mit GPT-4O und Deepseek-V3 vergleichbar ist. Das Modell wurde in 15 -T-Argumentationsdaten ausgiebig vorgelegt, die durch Ausrichtung der menschlichen Präferenz, Ablehnungsabtastung und Verstärkungslernen verfeinert wurden. Dies hilft dem Modell, den Anweisungen zu befolgen und intestine strukturierte Ausgaben zu erzeugen.
Das Modell zeichnet sich in der Umstellung komplexer Codegenerierung, Codeanalyse und Funktionsausgänge im Funktionsweise. Dank seines Trainings kann es mehrstufige Argumentation im Code-z. B. nach der Verfolgung von Logik oder Vorschlägen von Verbesserungen-ausführen als viele Modelle mit ähnlicher oder größerer Größe. Ein weiterer Vorteil ist das relativ große Kontextfenster, bis zu 32.000 Token, sodass GLM-4 ohne Probleme große Codebrocken oder mehrere Dateien verarbeiten kann. Dies macht es nützlich für Aufgaben wie die Analyse ganzer Codebasen oder die Bereitstellung umfassender Refactoring -Vorschläge in einem einzigen Lauf.
# 2. Deepseekcoder v2
Deepseekcoder V2 ist ein Codierungs-LLM basierend auf einem Expertenmischungssystem, das speziell für die Codierungsarbeiten geschult ist. Die Modelle werden in zwei Open-Gewicht-Varianten veröffentlicht: ein 16B-Modell „Lite“ und ein 236B-Modell. Das DeepseekCoder V2-Modell wurde mit 6T-zusätzlichen Daten übertroffen Deepseek-V2 und erweitert die Sprachberichterstattung von 86 bis 338 Programmiersprachen. Das Kontextfenster erstreckt sich auch auf 128.000 Token, was für Verständnis des gesamten Projekts, Code-Infillieren und Cross-File-Refaktoren nützlich ist.
In Bezug auf die leistungsstarke Modelle zeigt das Modell erstklassige Ergebnisse, wie ein starker LLM-Rangliste der AID-LLM-Rangliste zusammen mit Premium-geschlossenen Modellen für das Code-Argumentieren platziert. Der Code ist MIT-lizenziert und die Modellgewichte sind unter Deepseeks Modelllizenz erhältlich, die die kommerzielle Verwendung ermöglicht. Viele führen die 16B Lite lokal für schnelle Code-Abschluss- und Vibe-Coding-Sitzungen aus, während der 236B auf Multi-GPU-Server für die Erzeugung von Code-Code und die Argumentation im Projektmaßstab abzielt.
# 3.. Qwen3-Codierer
QWEN3-CODER ist ein von Alibaba Cloud von QWEN-Staff von Alibaba Cloud entwickeltes LLM, das auf 7,5-t-Daten geschult wurde, von denen 70% Code waren. Es verwendet einen Mischungsmischungsmischung (MEE) mit zwei Versionen: 35B- und 480B-Parameter. Die Leistung des Leistungsrivalen mit GPT-4-Stage und Claude 4 Sonett-Codierungsfunktionen und ein 256-km-Kontextfenster (über YARM). Auf diese Weise kann das Modell ganze Repositorys und lange Dateien in einer einzigen Sitzung verarbeiten. Es versteht und generiert auch Code in über 350 Programmiersprachen und bietet gleichzeitig die Fähigkeiten für agierische Codierungsaufgaben.
Das 480B-Modell erfordert schwere {Hardware} wie Multi-H100-GPUs oder Excessive-Reminiscence-Server, aber sein MOE-Design bedeutet, dass nur eine Teilmenge von Parametern professional Token aktiv ist. Wenn Sie kleinere Anforderungen wünschen, können die 35B- und FP8-Varianten für eine einzelne Excessive-Finish-GPU für die lokale Verwendung ausgeführt werden. Die Gewichte des Modells sind unter der Apache 2.0-Lizenz offen verfügbar, wodurch QWEN3-Codierer zu einem leistungsstarken, aber zugänglichen Kodierungsassistenten von grundlegenden Codierungsaufgaben bis hin zu fortgeschrittenen Agenten ist.
# 4. Codestral
Codestral ist ein dedizierter Codetransformator, der für die Codegenerierung in über 80 Programmiersprachen abgestimmt ist und von Mistral AI entwickelt wurde. Es wurde in zwei Varianten – 22b und Mamba 7b – mit einem großen 32K -Kontextfenster eingeführt. Sie sind relativ zu ihrer Größe für niedrige Latenz ausgelegt, was während der Reside -Bearbeitung nützlich ist. Die Gewichte sind unter herunterladbar Nicht-Produktlizenz von Mistral (Kostenlos für Forschung/Take a look at) und kommerzielle Nutzung erfordert eine separate Lizenz.
Für die lokale Codierung ist der 22b in 4-/8-Bit bei einer einzigen starken GPU für den täglichen Gebrauch kompetent und schnell genug und ist nach wie vor längere Generationen für größere Projekte. Mistral bietet auch an CodestralendpunkteAber wenn Sie vollständig lokal bleiben, reichen die offenen Gewichte und gemeinsame Inferenzstapel bereits aus.
# 5. Code Lama
Code Lama ist eine Modellfamilie, die für das Codieren auf Foundation von LLAMA mit mehreren Größen (7B, 13b, 34b, 70b) und Variationen (Foundation, Python-spezialisiert, unterrichtet) basiert. Abhängig von der Model können die Modelle zuverlässig für ihre spezifische Verwendung arbeiten, wie z. B. Infillieren oder pythonspezifische Aufgaben, selbst bei sehr langen Eingängen (bis zu ~ 100.000 mit langen Kontext-Techniken). Alle sind als offene Gewichte verfügbar META -Neighborhood -Lizenzwas breite Forschung und kommerzielle Nutzung ermöglicht.
Code LLAMA ist eine beliebte Foundation für lokale Codierungsmittel und IDE-Copiloten, da die 7B/13B-Größen auf Einzel-GPU-Laptops und Desktops (insbesondere bei der Quantisierung) bequem laufen. Im Vergleich dazu bieten die 34b/70B -Größen eine stärkere Genauigkeit, wenn Sie mehr VRAM haben. Bei verschiedenen Versionen gibt es viele Anwendungsmöglichkeiten-beispielsweise ist das Python-Modell intestine für Daten- und maschinelle Lernen-Workflows geeignet, während die Anweisungsvariante intestine mit Konversations- und Vibe-Coding-Flows bei Editoren funktioniert.
# Einpacken
Als Referenz für das, was wir oben diskutiert haben, ist dies der Gesamtvergleich der abgedeckten Modelle.


Klicken Sie hier, um zu vergrößern
Abhängig von Ihren Anforderungen und der lokalen Leistung können diese Modelle Ihre Arbeit effektiv unterstützen.
Ich hoffe das hat geholfen!
Cornellius Yudha Wijaya ist ein Information Science Assistant Supervisor und Datenautor. Während er in Vollzeit bei Allianz Indonesien arbeitet, liebt er es, Python- und Datentipps über soziale Medien und das Schreiben von Medien zu teilen. Cornellius schreibt über eine Vielzahl von KI- und maschinellen Lernthemen.
