5 nützliche Docker-Container für Agentenentwickler
Bild vom Autor

# Einführung

Der Aufstieg von Frameworks wie LangChain Und CrewAI hat die Entwicklung von KI-Agenten einfacher denn je gemacht. Bei der Entwicklung dieser Agenten müssen jedoch häufig API-Ratengrenzen erreicht, hochdimensionale Daten verwaltet oder lokale Server dem Web ausgesetzt werden.

Anstatt während der Prototyping-Part für Cloud-Dienste zu zahlen oder Ihren Host-Rechner mit Abhängigkeiten zu belasten, können Sie davon profitieren Docker. Mit einem einzigen Befehl können Sie die Infrastruktur aufbauen, die Ihre Agenten intelligenter macht.

Hier sind 5 wichtige Docker-Container, die jeder KI-Agent-Entwickler in seinem Toolkit haben sollte.

# 1. Ollama: Führen Sie lokale Sprachmodelle aus

Ollama-Dashboard
Ollama-Dashboard

Wenn Sie Agenten erstellen, senden Sie jede Eingabeaufforderung an einen Cloud-Anbieter wie z OpenAI kann teuer und langsam werden. Manchmal benötigen Sie ein schnelles, privates Modell für bestimmte Aufgaben – etwa Grammatikkorrekturen oder Klassifizierungsaufgaben.

Ollama ermöglicht Ihnen die Ausführung von Open-Supply-LLMs (Massive Language Fashions) – z Lama 3, Mistraloder Phi – direkt auf Ihrem lokalen Rechner. Durch die Ausführung in einem Container halten Sie Ihr System sauber und können problemlos zwischen verschiedenen Modellen wechseln, ohne eine komplexe Python-Umgebung einrichten zu müssen.

Datenschutz und Kosten sind wichtige Anliegen bei der Immobilienvermittlung. Der Ollama Docker-Bild erleichtert die Bereitstellung von Modellen wie Llama 3 oder Mistral über eine REST-API.

// Erklären, warum es für Agentenentwickler wichtig ist

Anstatt smart Daten an externe APIs wie OpenAI zu senden, können Sie Ihrem Agenten ein „Gehirn“ geben, das in Ihrer eigenen Infrastruktur lebt. Dies ist wichtig für Unternehmensagenten, die proprietäre Daten verarbeiten. Durch Laufen docker run ollama/ollamahaben Sie sofort einen lokalen Endpunkt, den Ihr Agentencode aufrufen kann, um Textual content oder Begründungen zu Aufgaben zu generieren.

// Einleiten eines Schnellstarts

Verwenden Sie den folgenden Befehl, um das Mistral-Modell über den Ollama-Container abzurufen und auszuführen. Dadurch wird der Port zugeordnet und die Modelle bleiben auf Ihrem lokalen Laufwerk erhalten.

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Sobald der Container ausgeführt wird, müssen Sie ein Modell abrufen, indem Sie einen Befehl im Container ausführen:

docker exec -it ollama ollama run mistral

// Erklären, warum es für Agentenentwickler nützlich ist

Sie können jetzt den LLM-Shopper Ihres Agenten darauf verweisen http://localhost:11434. Dadurch erhalten Sie einen lokalen, API-kompatiblen Endpunkt für schnelles Prototyping und stellen sicher, dass Ihre Daten niemals Ihren Laptop verlassen.

// Überprüfung der wichtigsten Vorteile

  • Datenschutz: Schützen Sie Ihre Eingabeaufforderungen und Daten
  • Kosteneffizienz: Keine API-Gebühren für Inferenz
  • Latenz: Schnellere Reaktionen bei Ausführung auf lokalen GPUs

Erfahren Sie mehr: Ollama Docker Hub

# 2. Qdrant: Die Vektordatenbank für den Speicher

Qdrant-Dashboard
Qdrant-Dashboard

Agenten benötigen Gedächtnis, um sich an vergangene Gespräche und Domänenwissen zu erinnern. Um einem Agenten ein Langzeitgedächtnis zu verleihen, benötigen Sie eine Vektordatenbank. Diese Datenbanken speichern numerische Darstellungen (Einbettungen) von Textual content, sodass Ihr Agent später nach semantisch ähnlichen Informationen suchen kann.

Qdrant ist eine leistungsstarke Open-Supply-Vektordatenbank, die in Rust erstellt wurde. Es ist schnell, zuverlässig und bietet beides: gRPC und eine REST-API. Wenn Sie es in Docker ausführen, erhalten Sie sofort ein Speichersystem in Produktionsqualität für Ihre Agenten.

// Erklären, warum es für Agentenentwickler wichtig ist

Um einen RAG-Agenten (Retrieval-Augmented Technology) zu erstellen, müssen Sie Dokumenteinbettungen speichern und schnell abrufen. Qdrant fungiert als Langzeitgedächtnis des Agenten. Wenn ein Benutzer eine Frage stellt, wandelt der Agent sie in einen Vektor um, durchsucht Qdrant nach ähnlichen Vektoren – die relevantes Wissen repräsentieren – und verwendet diesen Kontext, um eine Antwort zu formulieren. Durch die Ausführung in Docker bleibt diese Speicherschicht von Ihrem Anwendungscode entkoppelt, wodurch sie robuster wird.

// Einleiten eines Schnellstarts

Sie können Qdrant mit einem einzigen Befehl starten. Dadurch werden die API und das Dashboard auf Port 6333 und die gRPC-Schnittstelle auf Port 6334 verfügbar gemacht.

docker run -d -p 6333:6333 -p 6334:6334 qdrant/qdrant

Nachdem Sie dies ausgeführt haben, können Sie Ihren Agenten mit verbinden localhost:6333. Wenn der Agent etwas Neues lernt, speichern Sie die Einbettung in Qdrant. Wenn der Benutzer das nächste Mal eine Frage stellt, kann der Agent diese Datenbank nach relevanten „Erinnerungen“ durchsuchen, die er in die Eingabeaufforderung einbeziehen kann, sodass es sich wirklich um ein Gespräch handelt.

# 3. n8n: Arbeitsabläufe zusammenfügen

N8N-Dashboard
N8N-Dashboard

Agenten-Workflows existieren selten im luftleeren Raum. Manchmal muss Ihr Agent Ihre E-Mails abrufen, eine Zeile in einem Google Sheet aktualisieren oder eine Slack-Nachricht senden. Sie könnten die API-Aufrufe zwar auch manuell schreiben, der Vorgang ist jedoch oft langwierig.

n8n ist ein Truthful-Code-Workflow-Automatisierungstool. Es ermöglicht Ihnen, verschiedene Dienste über eine visuelle Benutzeroberfläche zu verbinden. Durch die lokale Ausführung können Sie komplexe Workflows erstellen – wie zum Beispiel „Wenn ein Agent einen Vertriebs-Lead erkennt, fügen Sie ihn zu HubSpot hinzu und senden Sie eine Slack-Benachrichtigung“ –, ohne eine einzige Zeile Integrationscode schreiben zu müssen.

// Einleiten eines Schnellstarts

Um Ihre Arbeitsabläufe beizubehalten, sollten Sie ein Quantity bereitstellen. Der folgende Befehl richtet n8n mit SQLite als Datenbank ein.

docker run -d --name n8n -p 5678:5678 -v n8n_data:/residence/node/.n8n n8nio/n8n

// Erklären, warum es für Agentenentwickler nützlich ist

Sie können Ihren Agent so gestalten, dass er eine n8n-Webhook-URL aufruft. Der Agent sendet einfach die Daten und n8n kümmert sich um die komplizierte Logik der Kommunikation mit APIs von Drittanbietern. Dies trennt das „Gehirn“ (das LLM) von den „Händen“ (den Integrationen).

Greifen Sie auf den Editor zu http://localhost:5678 und beginnen Sie mit der Automatisierung.

Erfahren Sie mehr: n8n Docker Hub

# 4. Firecrawl: Verwandeln Sie Web sites in modellreife Daten für große Sprachen

Firecrawl-Dashboard
Firecrawl-Dashboard

Eine der häufigsten Aufgaben für Agenten ist die Recherche. Agenten haben jedoch Schwierigkeiten, rohe HTML- oder mit JavaScript gerenderte Web sites zu lesen. Sie benötigen sauberen, markdownformatierten Textual content.

Feuerkriechen ist ein API-Dienst, der eine URL annimmt, die Web site crawlt und den Inhalt in saubere Markdown- oder strukturierte Daten umwandelt. Es übernimmt das JavaScript-Rendering und entfernt automatisch Standardelemente wie Anzeigen und Navigationsleisten. Durch die lokale Ausführung werden die Nutzungsbeschränkungen der Cloud-Model umgangen.

// Einleiten eines Schnellstarts

Firecrawl verwendet a docker-compose.yml Datei, da sie aus mehreren Diensten besteht, einschließlich der App, Redis und Playwright. Klonen Sie das Repository und führen Sie es aus.

git clone https://github.com/mendableai/firecrawl.git
cd firecrawl
docker compose up

// Erklären, warum es für Agentenentwickler nützlich ist

Geben Sie Ihrem Agenten die Möglichkeit, Dwell-Webdaten aufzunehmen. Wenn Sie einen Rechercheagenten erstellen, können Sie ihn Ihre lokale Firecrawl-Instanz aufrufen lassen, um eine Webseite abzurufen, sie in sauberen Textual content umzuwandeln, ihn aufzuteilen und ihn autonom in Ihrer Qdrant-Instanz zu speichern.

# 5. PostgreSQL und pgvector: Implementieren Sie relationalen Speicher

PostgreSQL-Dashboard
PostgreSQL-Dashboard

Manchmal reicht die Vektorsuche allein nicht aus. Möglicherweise benötigen Sie eine Datenbank, die strukturierte Daten – wie Benutzerprofile oder Transaktionsprotokolle – und Vektoreinbettungen gleichzeitig verarbeiten kann. PostgreSQLmit dem pgvector Mit der Erweiterung können Sie genau das tun.

Anstatt eine separate Vektordatenbank und eine separate SQL-Datenbank zu betreiben, erhalten Sie das Beste aus beiden Welten. Sie können den Namen und das Alter eines Benutzers in einer Tabellenspalte und seine Konversationseinbettungen in einer anderen Spalte speichern und dann Hybridsuchen durchführen (z. B. „Suchen Sie nach Konversationen von Benutzern in New York über Rückerstattungen“).

// Einleiten eines Schnellstarts

Das offizielle PostgreSQL-Picture enthält pgvector standardmäßig nicht. Sie müssen ein bestimmtes Bild verwenden, beispielsweise das von der pgvector-Organisation.

docker run -d --name postgres-pgvector -p 5432:5432 -e POSTGRES_PASSWORD=mysecretpassword pgvector/pgvector:pg16

// Erklären, warum es für Agentenentwickler nützlich ist

Dies ist das ultimative Backend für Stateful Brokers. Ihr Agent kann seine Speicher und seinen internen Zustand in dieselbe Datenbank schreiben, in der sich Ihre Anwendungsdaten befinden, wodurch Konsistenz gewährleistet und Ihre Architektur vereinfacht wird.

# Zusammenfassung

Sie benötigen kein riesiges Cloud-Finances, um anspruchsvolle KI-Agenten zu entwickeln. Das Docker-Ökosystem bietet produktionstaugliche Alternativen, die perfekt auf einem Entwickler-Laptop computer laufen.

Indem Sie diese fünf Container zu Ihrem Workflow hinzufügen, rüsten Sie sich mit Folgendem aus:

  • Gehirne: Ollama für lokale Schlussfolgerungen
  • Speicher: Qdrant für Vektorsuche
  • Hände: n8n für die Workflow-Automatisierung
  • Augen: Firecrawl zur Webaufnahme
  • Speicher: PostgreSQL mit pgvector für strukturierte Daten

Starten Sie Ihre Container, richten Sie Ihren LangChain- oder CrewAI-Code auf localhost und beobachten Sie, wie Ihre Agenten zum Leben erwachen.

// Weiterführende Literatur

Shittu Olumid ist ein Software program-Ingenieur und technischer Autor, der sich leidenschaftlich dafür einsetzt, modernste Technologien zu nutzen, um fesselnde Erzählungen zu erschaffen, mit einem scharfen Blick fürs Element und einem Gespür für die Vereinfachung komplexer Konzepte. Sie können Shittu auch auf finden Twitter.



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert