Ich habe viel über Rag- und AI -Agenten gelesen, aber mit der Veröffentlichung neuer Modelle wie Deepseek V3 und Deepseek R1 scheint es, dass die Möglichkeit, effiziente Rag -Systeme zu bauen skalierbare Architekturen für reale Anwendungen. Die Integration von ausgefeilteren Abrufmechanismen, verbesserten Feinabstimmungsoptionen und multimodalen Funktionen verändern die Artwork und Weise, wie KI-Agenten mit Daten interagieren. Es wirft Fragen auf, ob traditionelle Lappenansätze immer noch der beste Weg nach vorne sind oder ob neuere Architekturen effizientere und kontextbezogene Lösungen bieten können.
REMAINAL-AUGENTED-Era (LAG) Die Systeme haben die Artwork und Weise revolutioniert, wie KI-Modelle mit Daten interagieren, indem sie abrufbasierte und generative Ansätze kombiniert werden, um genauere und kontextbewusstere Antworten zu erzielen. Mit dem Aufkommen von Deepseek R1Ein Open-Supply-Modell, das für Effizienz und Kosteneffizienz bekannt ist und ein effektives Lappensystem aufgebaut ist, ist zugänglicher und praktischer geworden. In diesem Artikel bauen wir ein Lappensystem mit Deepseek R1 auf.
Was ist Deepseek R1?
Deepseek R1 ist ein Open-Supply-KI-Modell mit dem Ziel, qualitativ hochwertige Argumentations- und Abruffunktionen zu einem Bruchteil der Kosten für proprietäre Modelle wie OpenAIs Angebote bereitzustellen. Es verfügt über eine MIT -Lizenz, wodurch es kommerziell rentabel und für eine Vielzahl von Anwendungen geeignet ist. Außerdem können Sie dieses mächtige Modell das Kinderbett sehen, aber die OpenAI O1- und O1-Mini zeigen kein Argumentations-Token.
Um zu wissen, wie Deepseek R1 das OpenAI O1 -Modell herausfordert: Deepseek R1 gegen OpenAI O1: Welches ist schneller, billiger und schlauer?
Vorteile der Verwendung von Deepseek R1 für RAG -System
Der Aufbau eines RAG-Methods (Retrieval-Augmented Era) mit Deepseek-R1 bietet mehrere bemerkenswerte Vorteile:
1. Fortgeschrittene Argumentationsfunktionen: Deepseek-R1 wurde entwickelt, um das menschliche Argumentation durch Analysieren und Verarbeitung von Informationen Schritt für Schritt nach vor der Analyse und Verarbeitung von Schlussfolgerungen zu emulieren. Dieser Ansatz verbessert die Fähigkeit des Methods, komplexe Abfragen zu bewältigen, insbesondere in Bereichen, die logische Inferenz, mathematisches Denken und Codierungsaufgaben erfordern.
2. Open-Supply-Zugänglichkeit: Deepseek-R1 veröffentlicht unter der MIT-Lizenz und ermöglicht den uneingeschränkten Zugang zu seinem Modell vollständig offen. Diese Offenheit erleichtert die Anpassung, Feinabstimmung und Integration in verschiedene Anwendungen ohne die häufig mit proprietären Modellen verbundenen Einschränkungen.
3.. Wettbewerbsleistung: Benchmark-Exams zeigen, dass Deepseek-R1 mit oder sogar übertrifft oder sogar übertrifft Modelle wie OpenAs O1 in Aufgaben, die Argumentation, Mathematik und Codierung beinhalten. Diese Leistungsstufe stellt sicher, dass ein mit Deepseek-R1 erstellter Lappensystem qualitativ hochwertige, genaue Reaktionen für verschiedene und herausfordernde Fragen liefern kann.
4. Transparenz im Denkprozess: Deepseek-R1 verwendet eine „Kette der Gedanken“ -Methodik und macht seine Argumentationsschritte während der Inferenz sichtbar. Diese Transparenz hilft nicht nur beim Debuggen und Verfeinern des Methods, sondern baut auch das Vertrauen der Benutzer auf, indem sie klare Einblicke in die Erreichung der Schlussfolgerungen liefern.
5. Kosteneffizienz: Die Open-Supply-Natur von Deepseek-R1 beseitigt Lizenzgebühren, und seine effiziente Architektur verringert die Anforderungen an die Rechenressourcen. Diese Faktoren tragen zu einer kostengünstigeren Lösung für Organisationen bei, die anspruchsvolle RAG-Systeme implementieren möchten, ohne erhebliche Ausgaben zu erfüllen.
Die Integration von Deepseek-R1 in ein Lag-System bietet eine starke Kombination aus fortschrittlichen Argumentationsfähigkeiten, Transparenz, Leistung und Kosteneffizienz, was es zu einer überzeugenden Wahl für Entwickler und Organisationen macht, die ihre KI-Fähigkeiten verbessern möchten.
Schritte zum Erstellen eines Lappensystems mit Deepseek R1
Das Drehbuch ist eine RAG-Pipeline (Abruf-Augmented Era), die:
- Ladet und verarbeitet ein PDF -Dokument Indem Sie es in Seiten aufspalten und Textual content extrahieren.
- Speichert vektorisierte Darstellungen des Textes in einer Datenbank (Chromadb).
- Ruft relevante Inhalte ab Verwenden der Ähnlichkeitssuche, wenn eine Abfrage gefragt wird.
- Verwendet ein LLM (Deepseek -Modell) Um Antworten basierend auf dem abgerufenen Textual content zu generieren.
Voraussetzungen installieren
curl -fsSL https://ollama.com/set up.sh | sh
Danach ziehen Sie die Deepseek R1: 1,5B mit:
ollama pull deepseek-r1:1.5b
Der Herunterladen wird einen Second dauern:
ollama pull deepseek-r1:1.5b
pulling manifest
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB
pulling 369ca498f347... 100% ▕████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B
pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
Öffnen Sie danach Ihr Jupyter -Notizbuch und beginnen Sie mit dem Codierungsteil:
1. Installieren Sie Abhängigkeiten
Vor dem Ausführen installiert das Skript die erforderlichen Python -Bibliotheken:
langchain
→ Ein Rahmen zum Erstellen von Anwendungen mit großer Sprachmodellen (LLMs).langchain-openai
→ Bietet Integration mit OpenAI -Diensten.langchain-community
→ Fügt Unterstützung für verschiedene Dokumentenlader und Dienstprogramme hinzu.langchain-chroma
→ Ermöglicht die Integration mit Chromadb, einer Vektor -Datenbank.
2. Geben Sie die OpenAI -API -Schlüssel ein
Um auf das Einbettungsmodell von OpenAI zuzugreifen, fordert das Skript den Benutzer auf Geben Sie sicher ihren API -Schlüssel ein Verwendung getpass()
. Dies verhindert, dass Anmeldeinformationen im Klartext aufgedeckt werden.
3. Einrichten von Umgebungsvariablen
Das Skript speichert die API -Schlüssel als Umgebungsvariable. Dadurch können andere Teile des Codes auf OpenAI -Dienste zugreifen Ohne hartnäckige Anmeldeinformationenwas die Sicherheit verbessert.
V.
Das Skript initialisiert ein OpenAI -Einbettungsmodell namens "text-embedding-3-small"
. Dieses Modell Konvertiert Textual content in Vektor -Einbettungendie hochdimensionale numerische Darstellungen der Bedeutung des Textes sind. Diese Einbettungen werden später gewohnt Vergleichen und abrufen ähnliche Inhalte.
5. Ein PDF -Dokument laden und teilen
Eine PDF -Datei (AgenticAI.pdf
) Ist geladen und in Seiten aufgeteilt. Der Textual content jeder Seite wird extrahiert, was erlaubt kleinere und überschaubare Textbrocken Anstatt das gesamte Dokument als einzelne Einheit zu verarbeiten.
6. Erstellen und speichern Sie eine Vektordatenbank
- Der extrahierte Textual content aus dem PDF ist in Vektor -Einbettungen umgewandelt.
- Diese Einbettungen sind Speichern in Chromadbeine Hochleistungs Vektordatenbank.
- Die Datenbank ist für die Verwendung konfiguriert Kosinusähnlichkeitwas sicherstellt, dass der Textual content mit einem hohen Maß an semantischer Ähnlichkeit effizient abgerufen wird.
7. Rufen Sie ähnliche Texte mit einer Ähnlichkeitsschwelle ab
A Retriever wird mit Chromadb erstellt, das:
- Suche nach den High 3 am ähnlichsten Dokumente basierend auf einer bestimmten Abfrage.
- Filterergebnisse mit einer Ähnlichkeitsschwelle von 0,3 (dh Dokumente müssen mindestens 30% Ähnlichkeit haben, um als related angesehen zu werden).
8. Abfrage nach ähnlichen Dokumenten
Es werden zwei Testfragen verwendet:
"What's the outdated capital of India?"
- Es wurden keine Ergebnisse gefundenwas angibt, dass die gespeicherten Dokumente keine relevanten Informationen enthalten.
"What's Agentic AI?"
- Ruft erfolgreich relevanten Textual content abund zeigen, dass das System einen sinnvollen Kontext holen kann.
9. Bauen Sie einen Lappen-Ketten (retrieval-augmented Era)
Das Skript legt a ein Lappenpipelinewas sicherstellt, dass:
- Textabnahme passiert, bevor er eine Antwort generiert.
- Die Antwort des Modells ist basierend auf abgerufenen InhaltenHalluzinationen verhindern.
- A Schnellvorlage wird verwendet, um das Modell zur Erzeugung strukturierter Reaktionen anzuweisen.
10. Lasten Sie eine Verbindung zu einem LLM (Deekseek -Modell)
Anstelle von Openais GPT das Skript Lädt Deepseek-R1 (1,5B-Parameter)ein leistungsstarker LLM, der für retrievalbasierte Aufgaben optimiert wurde.
11. Erstellen Sie eine Kette auf Lappenbasis
Langchains Abruf Modul wird verwendet, um:
- Relevante Inhalte holen aus der Vektordatenbank.
- Formatieren Sie eine strukturierte Reaktion Verwenden einer schnellen Vorlage.
- Generieren Sie eine kurze Antwort mit dem Deepseek -Modell.
12. Testen Sie die Lappenkette
Das Skript führt eine Testabfrage aus:"Inform the Leaders’ Views on Agentic AI"
Der LLM erzeugt eine faktenbasierte Antwort Strikt mit dem abgerufenen Kontext.
Das System Ruft relevante Informationen aus der Datenbank ab.
Code zum Erstellen eines Lappensystems mit Deepseek R1
Hier ist der Code:
Installieren Sie OpenAI- und Langchain -Abhängigkeiten
!pip set up langchain==0.3.11
!pip set up langchain-openai==0.2.12
!pip set up langchain-community==0.3.11
!pip set up langchain-chroma==0.1.4
Geben Sie die offene AI -API -Schlüssel ein
from getpass import getpass
OPENAI_KEY = getpass('Enter Open AI API Key: ')
Setup -Umgebungsvariablen
import os
os.environ('OPENAI_API_KEY') = OPENAI_KEY
Offene KI -Einbettungsmodelle
from langchain_openai import OpenAIEmbeddings
openai_embed_model = OpenAIEmbeddings(mannequin="text-embedding-3-small")
Erstellen Sie einen Vektor -DB und bestehen auf der Festplatte
from langchain_community.document_loaders import PyPDFLoader
loader = PyPDFLoader('AgenticAI.pdf')
pages = loader.load_and_split()
texts = (doc.page_content for doc in pages)
from langchain_chroma import Chroma
chroma_db = Chroma.from_texts(
texts=texts,
collection_name="db_docs",
collection_metadata={"hnsw:area": "cosine"}, # Set distance operate to cosine
embedding=openai_embed_model
)
Ähnlichkeit mit Schwellenwert Abruf
similarity_threshold_retriever = chroma_db.as_retriever(search_type="similarity_score_threshold",search_kwargs={"okay": 3,"score_threshold": 0.3})
question = "what's the outdated capital of India?"
top3_docs = similarity_threshold_retriever.invoke(question)
top3_docs
()
question = "What's Agentic AI?"
top3_docs = similarity_threshold_retriever.invoke(question)
top3_docs
Bauen Sie eine Lappenkette
from langchain_core.prompts import ChatPromptTemplate
immediate = """You might be an assistant for question-answering duties.
Use the next items of retrieved context to reply the query.
If no context is current or if you do not know the reply, simply say that you do not know.
Don't make up the reply until it's there within the supplied context.
Preserve the reply concise and to the purpose with regard to the query.
Query:
{query}
Context:
{context}
Reply:
"""
prompt_template = ChatPromptTemplate.from_template(immediate)
Lastanschluss zu LLM laden
from langchain_community.llms import Ollama
deepseek = Ollama(mannequin="deepseek-r1:1.5b")
Langchain -Syntax für Lappenkette
from langchain.chains import Retrieval
rag_chain = Retrieval.from_chain_type(llm=deepseek,
chain_type="stuff",
retriever=similarity_threshold_retriever,
chain_type_kwargs={"immediate": prompt_template})
question = "Inform the Leaders’ Views on Agentic AI"
rag_chain.invoke(question)
{'question': 'Inform the Leaders’ Views on Agentic AI',
Checkout in unseren detaillierten Artikeln über Deepseek Working und Vergleich mit ähnlichen Modellen:
Abschluss
Bauen eines Lappensystems mit Verwendung Deepseek R1 Bietet eine kostengünstige und leistungsstarke Möglichkeit, das Abrufen von Dokumenten und die Reaktionserzeugung zu verbessern. Mit seiner Open-Supply-Natur und ihren starken Argumentationsfähigkeiten ist es eine großartige Different zu proprietären Lösungen. Unternehmen und Entwickler können ihre Flexibilität nutzen, um KI-gesteuerte Anwendungen zu erstellen, die auf ihre Anforderungen zugeschnitten sind.
Möchten Sie Anwendungen mit Deepseek erstellen? Checkout unser Kostenloser Deepseek -Kurs Heute!