Qwen hat gerade 8 neue Modelle im Rahmen seiner neuesten Familie veröffentlicht – QWEN3, die vielversprechende Fähigkeiten präsentiert. Das Flaggschiff-Modell QWEN3-235B-A22B übertraf die meisten anderen Modelle, einschließlich Deepseek-R1, Openai’s O1O3-mini, grok 3 und Gemini 2.5-proin Normal -Benchmarks. Inzwischen übertraf der kleine Qwen3-30B-A3B QWQ-32B Dies hat ungefähr das 10 -fache der aktivierten Parameter als neues Modell. Mit solchen fortschrittlichen Funktionen erweisen sich diese Modelle als eine gute Wahl für eine breite Palette von Anwendungen. In diesem Artikel werden wir die Merkmale aller QWEN3 -Modelle untersuchen und lernen, wie Sie sie verwenden, um Lappensysteme und KI -Agenten zu erstellen.

Was ist Qwen3?

Qwen3 ist die neueste Serie von Großsprachige Modelle (LLM) in der QWEN -Familie, bestehend aus 8 verschiedenen Modellen. Dazu gehören QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B und QWEN3-0.6B. Alle diese Modelle werden unter Apache 2.0 -Lizenz veröffentlicht, wodurch sie Einzelpersonen, Entwicklern und Unternehmen frei zur Verfügung stellen.

Während 6 dieser Modelle dicht sind, bedeutet dies, dass sie während der Zeit der Inferenz und des Trainings alle Parameter aktiv verwenden, 2 von ihnen sind offen gewichtet:

  • QWEN3-235B-A22B: Ein großes Modell mit 235 Milliarden Parametern, von denen 22 Milliarden aktivierte Parameter sind.
  • QWEN3-30B-A3B: Eine kleinere MOE mit 30 Milliarden Gesamtparametern und 3 Milliarden aktivierten Parametern.

Hier ist ein detaillierter Vergleich aller 8 QWEN3 -Modelle:

Modelle Schichten Köpfe (Q/KV) Krawattenbettung Kontextlänge
Qwen3-0.6b 28 16/8 Ja 32k
Qwen3-1.7b 28 16/8 Ja 32k
Qwen3-4b 36 32/8 Ja 32k
Qwen3-8b 36 32/8 NEIN 128K
Qwen3-14b 40 40/8 NEIN 128K
QWEN3-32B 64 64/8 NEIN 128K
QWEN3-30B-A3B 48 32/4 NEIN 128K
QWEN3-235B-A22B 94 64/4 NEIN 128K

Hier ist, was der Tisch sagt:

  • Schichten: Ebenen repräsentieren die Anzahl der verwendeten Transformatorblöcke. Es umfasst mehrkopf Selbstbekämpfungsmechanismus, Vorwärtsnetzwerke, positionelle Codierung, Schichtnormalisierung und Restverbindungen. Wenn ich additionally sage, dass QWEN3-30B-A3B 48 Schichten hat, bedeutet dies, dass das Modell 48 Transformatorblöcke verwendet, die nacheinander oder parallel gestapelt sind.
  • Köpfe: Transformatoren verwenden Multi-Head-Aufmerksamkeit, die seinen Aufmerksamkeitsmechanismus in mehrere Köpfe aufteilt, jeweils einen neuen Aspekt aus den Daten. Hier repräsentiert Q/KV:
    • Q (Abfrageköpfe): Gesamtzahl der Aufmerksamkeitsköpfe, die zum Erstellen von Abfragen verwendet werden.
    • KV (Schlüssel und Wert): Die Anzahl der Schlüssel-/Wertköpfe professional Aufmerksamkeitsblock.

Notiz: Diese Aufmerksamkeitsköpfe für Schlüssel, Abfrage und Wert unterscheiden sich völlig von den Schlüssel-, Abfrage- und Wertvektor-Vektor, die durch eine Selbstbekämpfung erzeugt werden.

Lesen Sie auch: QWEN3 -Modelle: Wie man zugreift, Leistung, Funktionen und Anwendungen

Schlüsselmerkmale von QWEN3

Hier sind einige der wichtigsten Merkmale der QWEN3 -Modelle:

  1. Vorausbildung: Der Prozess vor dem Coaching besteht aus drei Stufen:
    • In der ersten Stufe wurde das Modell auf über 30 Billionen Token mit einer Kontextlänge von 4K -Token vorbereitet. Dies lehrte das Modell grundlegende Sprachkenntnisse und allgemeine Kenntnisse.
    • In der zweiten Stufe wurde die Datenqualität verbessert, indem der Anteil wissenintensiver Daten wie STEM, Codierung und Argumentationsaufgaben erhöht wurde. Das Modell wurde dann über weitere 5 Billionen Token trainiert.
    • In der letzten Section wurden hochwertige Langkontextdaten verwendet, indem die Kontextlänge auf 32 -km -Token erhöht wurde. Dies wurde durchgeführt, um sicherzustellen, dass das Modell längere Eingaben effektiv verarbeiten kann.
  1. Nach der Ausbildung: Um ein hybrides Modell zu entwickeln, das sowohl schrittweise Argumentation als auch schnelle Reaktionen in der Lage ist, wurde eine 4-stufige Trainingspipeline implementiert. Dies bestand aus:
  1. Hybrid -Denkmodi: QWEN3 -Modelle verwenden einen hybriden Ansatz zur Problemlösung mit zwei neuen Modi:
    • Denkmodus: In diesem Modus nehmen die Modelle Zeit, indem sie eine komplexe Problemaussage in kleine und prozedurale Schritte einleiten, um sie zu lösen.
    • Nicht-dene-Denken-Modus: In diesem Modus liefert das Modell schnelle Ergebnisse und eignet sich meistens für einfachere Fragen.
  1. Mehrsprachige Unterstützung: QWEN3 -Modelle unterstützen 119 Sprachen und Dialekte. Dies hilft Benutzern aus der ganzen Welt, von diesen Modellen zu profitieren.
  2. Improvisierte Agentenfähigkeiten: QWEN hat die QWEN3 -Modelle für bessere Codierung und agentenische Fähigkeiten optimiert, die Unterstützung Modellkontextprotokoll (MCP) auch.

So greifen Sie über API auf QWEN3 -Modelle zu

Um die QWEN3 -Modelle zu verwenden, werden wir über API mit der OpenRouter -API darauf zugreifen. Hier erfahren Sie, wie es geht:

  1. Erstellen Sie ein Konto auf OpenRouter und gehen Sie in die Modellsuchleiste, um die API für dieses Modell zu finden.
QWEN3 API -Zugriff
  1. Wählen Sie das Modell Ihrer Wahl und klicken Sie auf der Zielseite auf „API -Style erstellen“, um eine neue API zu generieren.
QWEN3 API -Zugang zum Aufbau von KI -Agenten

Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben

In diesem Abschnitt werden wir mit QWEN3 den Prozess des Erstellens von AI -Anwendungen durchlaufen. Wir werden zuerst einen KI-betriebenen Reiseplaner-Agenten erstellen, der das Modell verwendet, und dann einen Q/A-Rag-Bot verwendet Langchain.

Voraussetzungen

Bevor wir einige reale KI-Lösungen mit QWEN3 erstellen, müssen wir zunächst die grundlegenden Voraussetzungen wie folgt abdecken:

Aufbau eines AI -Agenten mit QWEN3

In diesem Abschnitt werden wir QWEN3 verwenden, um ein AI-angetriebenes Reisebüro zu erstellen, das die wichtigsten Reiseplätze für die Stadt oder den Ort, den Sie besuchen, angeben. Wir ermöglichen es dem Agenten auch, das Web zu durchsuchen, um aktualisierte Informationen zu finden und ein Device hinzuzufügen, das die Währungskonvertierung ermöglicht.

Schritt 1: Einrichten von Bibliotheken und Instruments

Zunächst werden wir die erforderlichen Bibliotheken und Instruments installieren und importieren, die zum Erstellen des Agenten erforderlich sind.

!pip set up langchain langchain-community openai duckduckgo-search
from langchain.chat_models import ChatOpenAI
from langchain.brokers import Device
from langchain.instruments import DuckDuckGoSearchRun
from langchain.brokers import initialize_agent


llm = ChatOpenAI(
   base_url="https://openrouter.ai/api/v1",
   api_key="your_api_key",
   mannequin="qwen/qwen3-235b-a22b:free"
)
# Internet Search Device
search = DuckDuckGoSearchRun()


# Device for DestinationAgent
def get_destinations(vacation spot):
   return search.run(f"Prime 3 vacationer spots in {vacation spot}")


DestinationTool = Device(
   identify="Vacation spot Recommender",
   func=get_destinations,
   description="Finds prime locations to go to in a metropolis"
)


# Device for CurrencyAgent
def convert_usd_to_inr(question):
   quantity = (float(s) for s in question.break up() if s.exchange('.', '', 1).isdigit())
   if quantity:
       return f"{quantity(0)} USD = {quantity(0) * 83.2:.2f} INR"
   return "Could not parse quantity."


CurrencyTool = Device(
   identify="Foreign money Converter",
   func=convert_usd_to_inr,
   description="Converts USD to inr primarily based on static charge"
)
  • Search_tool: Mit DuckDuckGoSearchRun () können der Agent die Websuche verwenden, um Informationen über die beliebten Touristenplätze zu erhalten.
  • DestinationTool: Wendet die Funktion get_destinations () an, die das Suchwerkzeug verwendet, um die Prime -3 -Touristenplätze in einer bestimmten Stadt zu erhalten.
  • CurrencyTool: Verwendet die Funktion convert_usd_to_inr (), um die Preise von USD in INR zu konvertieren. Sie können ‚INR‘ in der Funktion ändern, um sie in eine Währung Ihrer Wahl umzuwandeln.

Lesen Sie auch: Erstellen Sie einen Reiseassistenten Chatbot mit Umarmung, Langchain und Mistralai

Schritt 2: Erstellen des Agenten

Nachdem wir alle Instruments initialisiert haben, gehen wir mit dem Erstellen eines Agenten, der die Instruments verwendet und uns einen Plan für die Reise ermöglichen.

instruments = (DestinationTool, CurrencyTool)


agent = initialize_agent(
   instruments=instruments,
   llm=llm,
   agent_type="zero-shot-react-description",
   verbose=True
)
def trip_planner(metropolis, usd_budget):
   dest = get_destinations(metropolis)
   inr_budget = convert_usd_to_inr(f"{usd_budget} USD to INR")
   return f"""Right here is your journey plan:


*Prime spots in {metropolis}*:
{dest}
*Price range*:
{inr_budget}
Get pleasure from your day journey!"""
  • Initialize_agent: Diese Funktion erstellt einen Agenten mit Langchain mit einem Null-Shot-Reaktionsansatz, mit dem der Agent die Toolbeschreibungen verstehen kann.
  • Agent_type: Mit „Zero-Shot-React-Decription“ ermöglicht es dem Agent LLM, zu entscheiden, welches Device es in einer bestimmten State of affairs ohne Vorkenntnis verwenden soll, indem die Beschreibung und die Eingabe von Device verwendet wird.
  • Ausführlich: Ausführlich ermöglicht die Protokollierung des Denkprozesses des Agenten, sodass wir jede Entscheidung überwachen können, die der Agent trifft, einschließlich aller aufgerufenen Interaktionen und Instruments.
  • trip_planner: Dies ist eine Python -Funktion, die Instruments manuell aufruft, anstatt sich auf den Agenten zu verlassen. Damit kann der Benutzer das beste Device für ein bestimmtes Drawback auswählen.

Schritt 3: Initialisierung des Agenten

In diesem Abschnitt werden wir den Agenten initialisieren und seine Antwort beobachten.

# Initialize the Agent
metropolis = "Delhi"
usd_budget = 8500


# Run the multi-agent planner
response = agent.run(f"Plan a day journey to {metropolis} with a price range of {usd_budget} USD")
from IPython.show import Markdown, show
show(Markdown(response))
  • Aufruf des Agenten: Agent.Run () verwendet die Absicht des Benutzers über Eingabeaufforderung und plant die Reise.

Ausgabe

QWEN3 AI Agent Reaktion

Aufbau eines Lappensystems mit QWEN3

In diesem Abschnitt werden wir a erstellen Rag Bot Dies beantwortet jede Abfrage innerhalb des entsprechenden Eingabendokuments von der Wissensbasis. Dies gibt eine informative Antwort unter Verwendung von QWEN/QWEN3-235B-A22B. Das System würde auch Langchain verwenden, um genaue und kontextbezogene Antworten zu erzeugen.

Schritt 1: Einrichten der Bibliotheken und Instruments

Zunächst werden wir die erforderlichen Bibliotheken und Instruments installieren und importieren, die zum Erstellen des Lappensystems erforderlich sind.

!pip set up langchain langchain-community langchain-core openai tiktoken chromadb sentence-transformers duckduckgo-search
from langchain_community.document_loaders import TextLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain_community.vectorstores import Chroma
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.chains import RetrievalQA
from langchain.chat_models import ChatOpenAI
# Load your doc
loader = TextLoader("/content material/my_docs.txt")
docs = loader.load()
  • Dokumente laden: Die Langchain -Klasse „Textloader“ lädt das Dokument wie eine PDF-, TXT- oder DOC -Datei, die für das Q/A -Abruf verwendet wird. Hier habe ich hochgeladen my_docs.txt.
  • Auswählen des Vektor -Setups: Ich habe Chromadb verwendet, um die Einbettungen aus unserer Vektor -Datenbank für den Q/A -Prozess zu speichern und zu durchsuchen.

Schritt 2: Erstellen der Einbettungen

Nachdem wir unser Dokument geladen haben, gehen wir mit dem Erstellen von Einbettungen daraus, was dazu beiträgt, den Abrufprozess zu lindern.

# Cut up into chunks
splitter = CharacterTextSplitter(chunk_size=300, chunk_overlap=50)
chunks = splitter.split_documents(docs)


# Embed with HuggingFace mannequin
embeddings = HuggingFaceEmbeddings(model_name="all-MiniLM-L6-v2")
db = Chroma.from_documents(chunks, embedding=embeddings)


# Setup Qwen LLM from OpenRouter
llm = ChatOpenAI(
   base_url="https://openrouter.ai/api/v1",
   api_key="YOUR_API_KEY",
   mannequin="qwen/qwen3-235b-a22b:free"
)


# Create RAG chain
retriever = db.as_retriever(search_kwargs={"ok": 2})
rag_chain = RetrievalQA.from_chain_type(llm=llm, retriever=retriever)
  • Dokumentspaltung: Der CharakterTextsplitter () teilt den Textual content in kleinere Stücke, was hauptsächlich in zwei Dingen hilft. Erstens erleichtert es den Abrufprozess und zweitens hilft es bei der Beibehaltung des Kontextes vom vorherigen Chunk über Chunk_Overlap.
  • Einbettungsdokumente: Einbettungsdings umwandeln den Textual content für jeden Token in die Einbettungsvektoren einer festgelegten Dimension. Hier haben wir Chunk_Size von 300 verwendet, was bedeutet, dass jedes Wort/Token in einen Vektor von 300 Dimensionen umgewandelt wird. Jetzt hat diese Vektoreinbettung alle kontextuellen Informationen dieses Wortes in Bezug auf die anderen Wörter im Chunk.
  • Lappenkette: Die Lappenkette kombiniert die Chromadb mit dem LLM, um einen Lappen zu bilden. Auf diese Weise können wir kontextbezogene Antworten sowohl aus dem Dokument als auch aus dem Modell erhalten.

Schritt 3: Initialisierung des Lappensystems

# Ask a query
response = rag_chain.invoke({"question": "How can i exploit Qwen with MCP. Please give me a stepwise information together with the required code snippets"})
show(Markdown(response('consequence')))
  • Abfrageausführung: Die Methode rag_chain_invoke () sendet die Abfrage des Benutzers an das RAG-System, das dann die relevanten kontextbewussten Brocken aus dem Dokumentstore (Vector DB) abruft und eine kontextbezogene Antwort generiert.

Ausgabe

Antwort durch Qwen3 RAG -System
QWEN3 mit MCP -Tools
Reaktion durch Lappensystem

Sie können den vollständigen Code finden Hier.

Anwendungen von Qwen3

Hier finden Sie einige weitere Anwendungen von QWEN3 in Branchen:

  • Automatisierte Codierung: QWEN3 kann Code generieren, debuggen und Dokumentationen bereitstellen, mit denen Entwickler Fehler ohne manuelle Aufwand lösen können. Das 22B -Parametermodell zeichnet sich in der Codierung aus, wobei die Leistungen mit Modellen wie vergleichbar sind Deepseek-R1Gemini 2.5 Professional und OpenAIs o3-mini.
  • Bildung und Forschung: QWEN3 Archiv hohe Genauigkeit in Mathematik, Physik und Problemlösung für logisches Denken. Es ist auch mit dem Gemini 2.5 Professional konkurriert, während es sich mit Modellen wie OpenAs O1, O3-Mini, Deepseek-R1 und Openai auszeichnet Grok 3 Beta.
  • Agentenbasierte Device-Integration: QWEN3 führt auch in AI-Agentenaufgaben an, indem er die Verwendung externer Instruments, APIs und MCPs für mehrstufige und multi-agentische Workflows mit seiner Device-Abrechnungsvorlage ermöglicht, was die Agenteninteraktion weiter vereinfacht.
  • Erweiterte Argumentationsaufgaben: QWEN3 verwendet eine umfassende Denkfähigkeit, um optimale und genaue Antworten zu liefern. Das Modell verwendet die Kette des Gedächtnisses für komplexe Aufgaben und einen Nicht-Denken-Modus für optimierte Geschwindigkeit.

Abschluss

In diesem Artikel haben wir gelernt, wie man QWEN3-Agenten-KI- und RAG-Systeme baut. Die hohe Leistung, die mehrsprachige Unterstützung und die fortschrittliche Fähigkeit von QWEN3 machen es zu einer starken Wahl für das Abrufen von Wissen und agentenbasierte Aufgaben. Durch die Integration von QWEN3 in RAG- und Agenten-Pipelines können wir genaue, kontextbezogene und reibungslose Antworten erhalten, was es zu einem starken Anwärter auf reale Anwendungen für KI-betriebene Systeme macht.

Häufig gestellte Fragen

Q1. Wie unterscheidet sich QWEN3 von anderen LLMs für LAG?

A. QWEN3 verfügt über eine hybride Argumentationsfähigkeit, mit der es dynamische Änderungen in den Antworten vornehmen kann, mit der die RAG -Workflows sowohl für die Abruf- als auch für die komplexe Analyse optimiert werden können.

Q2. Was sind die Werkzeuge, die zur Integration von Lappen benötigt werden?

A. Es umfasst hauptsächlich die Vektordatenbank, einbettende Modelle, Langchain -Workflow und eine API, um auf das Modell zuzugreifen.

Q3. Kann QWEN3 das Multisep -Werkzeugketten im Agent -Workflow ermöglichen?

Ja, mit den integrierten Templates für integrierte Instruments in Qwen-Agent können wir sequentielle Device-Vorgänge wie Websuche, Datenanalyse und Berichterstellung analysieren und aktivieren.

This autumn. Wie kann man die Latenz in QWEN3 -Agentenreaktionen reduzieren?

A. Man kann die Latenz in vielerlei Hinsicht verringern, einige von ihnen sind:
1. Verwendung von MOE-Modellen wie QWEN3-30B-A3B, die nur 3 Milliarden aktive Parameter haben.
2. Durch Verwendung von GPU-optimierten Schlussfolgerungen.

Q5. Was sind die häufigsten Fehler bei der Implementierung von QWEN3 -Agenten?

A. Der übliche Fehler beinhaltet:
1. MCP Server -Initialisierungsfehler wie JSON -Formatierung und Init.
2. Fehlerpaarungsfehler.
3. Kontextfensterüberlauf.

Hallo, ich bin Vipin. Ich bin begeistert von Datenwissenschaft und maschinellem Lernen. Ich habe Erfahrung mit der Analyse von Daten, dem Aufbau von Modellen und der Lösung realer Probleme. Ich möchte Daten verwenden, um praktische Lösungen zu erstellen und in den Bereichen Datenwissenschaft, maschinelles Lernen und NLP zu lernen.

Melden Sie sich an, um weiter zu lesen und Experten-Kuratinhalte zu genießen.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert