ist eine wichtige Aufgabe, die angesichts der riesigen Menge an Inhalten, die heute verfügbar sind, von entscheidender Bedeutung ist. Eine Informationsabrufaufgabe ist beispielsweise jedes Mal, wenn Sie etwas googeln oder ChatGPT um eine Antwort auf eine Frage bitten. Bei den Informationen, die Sie durchsuchen, kann es sich um einen geschlossenen Datensatz von Dokumenten oder um das gesamte Web handeln.
In diesem Artikel bespreche ich die Informationssuche durch Agenten und erläutere, wie sich der Informationsabruf mit der Einführung von LLMs und insbesondere mit dem Aufkommen von KI-Agenten verändert hat, die viel besser in der Lage sind, Informationen zu finden, als wir es bisher gesehen haben. Ich werde zuerst auf RAG eingehen, da dies ein grundlegender Block bei der Suche nach Agenteninformationen ist. Anschließend diskutiere ich weiter auf hoher Ebene, wie KI-Agenten zum Auffinden von Informationen eingesetzt werden können.

Warum brauchen wir die Suche nach Agenteninformationen?
Das Abrufen von Informationen ist eine relativ alte Aufgabe. TF-IDF ist der erste Algorithmus, der zum Auffinden von Informationen in einem großen Dokumentenkorpus verwendet wird. Er indiziert Ihre Dokumente basierend auf der Häufigkeit von Wörtern in bestimmten Dokumenten und der Häufigkeit, mit der ein Wort in allen Dokumenten vorkommt.
Wenn ein Benutzer nach einem Wort sucht und dieses Wort in einigen Dokumenten häufig, aber selten in allen Dokumenten vorkommt, deutet dies auf eine starke Relevanz für diese wenigen Dokumente hin.
Das Abrufen von Informationen ist eine so wichtige Aufgabe, weil wir als Menschen darauf angewiesen sind, schnell Informationen zu finden, um verschiedene Probleme zu lösen. Diese Probleme könnten sein:
- Wie man eine bestimmte Mahlzeit zubereitet
- So implementieren Sie einen bestimmten Algorithmus
- So gelangen Sie von Standort A->B
TF-IDF funktioniert immer noch überraschend intestine, obwohl wir jetzt noch leistungsfähigere Ansätze zum Auffinden von Informationen entdeckt haben. Retrieval Augmented Era (RAG) ist eine leistungsstarke Technik, die auf semantischer Ähnlichkeit basiert, um nützliche Dokumente zu finden.
Die Suche nach Agenteninformationen nutzt verschiedene Techniken wie die Schlüsselwortsuche (z. B. TF-IDF, aber typischerweise modernisierte Versionen des Algorithmus wie BM25) und RAG, um relevante Dokumente zu finden, sie zu durchsuchen und Ergebnisse an den Benutzer zurückzugeben.
Bauen Sie Ihr eigenes RAG

Der Aufbau eines eigenen RAG ist mit all den heute verfügbaren Technologien und Instruments überraschend einfach. Es gibt zahlreiche Pakete, die Sie bei der Implementierung von RAG unterstützen. Sie alle basieren jedoch auf derselben, relativ einfachen zugrunde liegenden Technologie:
- Betten Sie Ihren Dokumentenkorpus ein (in der Regel teilen Sie die Dokumente auch auf)
- Speichern Sie die Einbettungen in einer Vektordatenbank
- Der Benutzer gibt eine Suchanfrage ein
- Betten Sie die Suchanfrage ein
- Finden Sie die Einbettungsähnlichkeit zwischen dem Dokumentkorpus und der Benutzerabfrage und geben Sie die ähnlichsten Dokumente zurück
Dies kann in nur wenigen Stunden umgesetzt werden, wenn Sie wissen, was Sie tun. Um Ihre Daten und Benutzeranfragen einzubetten, können Sie beispielsweise Folgendes verwenden:
- Managed Companies wie z.B
- Textual content-Embedding-Giant-3 von OpenAI
- Gemini-embedding-001 von Google
- Open-Supply-Optionen wie
- Alibabas qwen-embedding-8B
- Mistrals Linq-Embed-Mistral
Nachdem Sie Ihre Dokumente eingebettet haben, können Sie sie in einer Vektordatenbank speichern, z. B.:
Danach sind Sie grundsätzlich bereit, RAG durchzuführen. Im nächsten Abschnitt werde ich auch vollständig verwaltete RAG-Lösungen behandeln, bei denen Sie einfach ein Dokument hochladen und die gesamte Aufteilung, Einbettung und Suche für Sie erledigt wird.
Verwaltete RAG-Dienste
Wenn Sie einen einfacheren Ansatz wünschen, können Sie auch vollständig verwaltete RAG-Lösungen verwenden. Hier sind einige Optionen:
- Ragie.ai
- Gemini-Dateisuchtool
- OpenAI-Software zur Dateisuche
Diese Dienste vereinfachen den RAG-Prozess erheblich. Sie können Dokumente zu jedem dieser Dienste hochladen, und die Dienste übernehmen automatisch die Aufteilung, Einbettung und Inferenz für Sie. Sie müssen lediglich Ihre Rohdokumente hochladen und die Suchabfrage angeben, die Sie ausführen möchten. Der Dienst stellt Ihnen dann die für Ihre Anfrage relevanten Dokumente zur Verfügung, die Sie in ein LLM einspeisen können, um Benutzerfragen zu beantworten.
Obwohl Managed RAG den Prozess erheblich vereinfacht, möchte ich auch einige Nachteile hervorheben:
Wenn Sie nur PDFs haben, können Sie diese direkt hochladen. Allerdings gibt es derzeit einige Dateitypen, die von den verwalteten RAG-Diensten nicht unterstützt werden. Einige von ihnen unterstützen beispielsweise keine PNG/JPG-Dateien, was den Vorgang erschwert. Eine Lösung besteht darin, OCR für das Bild durchzuführen und die TXT-Datei hochzuladen (was unterstützt wird), aber das verkompliziert natürlich Ihre Anwendung, was genau das ist, was Sie vermeiden möchten, wenn Sie verwaltetes RAG verwenden.
Ein weiterer Nachteil besteht natürlich darin, dass Sie Rohdokumente auf die Dienste hochladen müssen. Dabei müssen Sie sicherstellen, dass Sie beispielsweise die DSGVO-Vorschriften in der EU einhalten. Dies kann für einige verwaltete RAG-Dienste eine Herausforderung sein, obwohl ich weiß, dass OpenAI zumindest die EU-Residency unterstützt.
Ich werde auch ein Beispiel für die Verwendung geben Das Dateisuchtool von OpenAIwas natürlich sehr einfach zu bedienen ist.
Zuerst erstellen Sie einen Vektorspeicher und laden Dokumente hoch:
from openai import OpenAI
shopper = OpenAI()
# Create vector retailer
vector_store = shopper.vector_stores.create(
identify="<your vector retailer identify>",
)
# Add file and add it to the vector retailer
shopper.vector_stores.recordsdata.upload_and_poll(
vector_store_id=vector_store.id,
file=open("filename.txt", "rb")
)
Nach dem Hochladen und Bearbeiten von Dokumenten können Sie diese abfragen mit:
user_query = "What's the which means of life?"
outcomes = shopper.vector_stores.search(
vector_store_id=vector_store.id,
question=user_query,
)
Wie Sie vielleicht bemerken, ist dieser Code viel einfacher als das Einrichten von Einbettungsmodellen und Vektordatenbanken, um RAG selbst zu erstellen.
Instruments zur Informationsbeschaffung
Da wir nun über die Instruments zum Informationsabruf verfügen, können wir mit der Durchführung des Agenten-Informationsabrufs beginnen. Ich beginne mit dem anfänglichen Ansatz, LLMs zur Informationssuche zu verwenden, bevor ich mit dem besseren und aktualisierten Ansatz fortfahre.
Abrufen, dann antworten
Der erste Ansatz besteht darin, zunächst relevante Dokumente abzurufen und diese Informationen einem LLM zuzuführen, bevor dieser die Frage des Benutzers beantwortet. Dies kann erreicht werden, indem sowohl eine Stichwortsuche als auch eine RAG-Suche ausgeführt werden, die Prime-X-relevanten Dokumente gefunden und diese Dokumente in ein LLM eingespeist werden.
Suchen Sie zunächst einige Dokumente mit RAG:
user_query = "What's the which means of life?"
results_rag = shopper.vector_stores.search(
vector_store_id=vector_store.id,
question=user_query,
)
Finden Sie dann einige Dokumente mit einer Stichwortsuche
def keyword_search(question):
# key phrase search logic ...
return outcomes
results_keyword_search = keyword_search(question)
Fügen Sie dann diese Ergebnisse zusammen, entfernen Sie doppelte Dokumente und geben Sie den Inhalt dieser Dokumente an ein LLM zur Beantwortung weiter:
def llm_completion(immediate):
# llm completion logic
return response
immediate = f"""
Given the next context {document_context}
Reply the person question: {user_query}
"""
response = llm_completion(immediate)
In vielen Fällen funktioniert dies hervorragend und liefert qualitativ hochwertige Antworten. Es gibt jedoch eine bessere Möglichkeit, die Suche nach Agenteninformationen durchzuführen.
Data Retrieval fungiert als Werkzeug
Die neuesten Frontier-LLMs sind alle auf das Verhalten von Agenten ausgerichtet. Das bedeutet, dass die LLMs sehr intestine darin sind, Instruments zur Beantwortung der Fragen einzusetzen. Sie können einem LLM eine Liste von Instruments zur Verfügung stellen, über deren Einsatz er selbst entscheidet und die er zur Beantwortung von Benutzeranfragen nutzen kann.
Der bessere Ansatz besteht daher darin, RAG und Stichwortsuche als Instruments für Ihre LLMs bereitzustellen. Für GPT-5 können Sie es beispielsweise wie folgt tun:
# outline a customized key phrase search perform, and supply GPT-5 with each
# key phrase search and RAG (file search device)
def keyword_search(key phrases):
# carry out key phrase search
return outcomes
user_input = "What's the which means of life?"
instruments = (
{
"kind": "perform",
"perform": {
"identify": "keyword_search",
"description": "Seek for key phrases and return related outcomes",
"parameters": {
"kind": "object",
"properties": {
"key phrases": {
"kind": "array",
"gadgets": {"kind": "string"},
"description": "Key phrases to seek for"
}
},
"required": ("key phrases")
}
}
},
{
"kind": "file_search",
"vector_store_ids": ("<vector_store_id>"),
}
)
response = shopper.responses.create(
mannequin="gpt-5",
enter=user_input,
instruments=instruments,
)
Dies funktioniert viel besser, da Sie keine einmalige Informationssuche mit der RAG-/Schlüsselwortsuche durchführen und dann die Benutzerfrage beantworten müssen. Es funktioniert intestine, weil:
- Der Agent kann selbst entscheiden, wann er die Instruments nutzt. Einige Abfragen erfordern beispielsweise keine Vektorsuche
- OpenAI führt automatisch das Umschreiben von Abfragen durch, das heißt, es führt parallele RAG-Abfragen mit unterschiedlichen Versionen der Benutzerabfrage aus (die es selbst schreibt, basierend auf der Benutzerabfrage).
- Der Agent kann entscheiden, weitere RAG-Abfragen/Stichwortsuchen auszuführen, wenn er der Meinung ist, dass ihm nicht genügend Informationen vorliegen
Der letzte Punkt in der obigen Liste ist der wichtigste Punkt für die Suche nach Agenteninformationen. Manchmal finden Sie die gesuchten Informationen bei der ersten Abfrage nicht. Der Agent (GPT-5) kann feststellen, dass dies der Fall ist, und bei Bedarf weitere RAG-/Key phrase-Suchanfragen auslösen. Dies führt oft zu viel besseren Ergebnissen und erhöht die Wahrscheinlichkeit, dass der Agent die gesuchten Informationen findet.
Abschluss
In diesem Artikel habe ich die Grundlagen des Agenten-Informationsabrufs behandelt. Ich begann damit, zu diskutieren, warum Agenteninformationen so wichtig sind, und betonte, wie sehr wir auf einen schnellen Zugriff auf Informationen angewiesen sind. Darüber hinaus habe ich die Instruments behandelt, die Sie zum Abrufen von Informationen mit Stichwortsuche und RAG verwenden können. Ich habe dann hervorgehoben, dass Sie diese Instruments statisch ausführen können, bevor Sie die Ergebnisse an ein LLM weiterleiten. Der bessere Ansatz besteht jedoch darin, diese Instruments an ein LLM weiterzuleiten, um es zu einem Agenten zu machen, der in der Lage ist, Informationen zu finden. Ich denke, dass die Suche nach Agenteninformationen in Zukunft immer wichtiger werden wird, und das Verständnis für den Einsatz von KI-Agenten wird in den kommenden Jahren eine wichtige Fähigkeit sein, um leistungsstarke KI-Anwendungen zu erstellen.
👉 Finden Sie mich in den sozialen Netzwerken:
💻 Mein Webinar zu Imaginative and prescient Language Fashions
📩 Abonnieren Sie meinen E-newsletter
✍️ Medium
Sie können auch meine anderen Artikel lesen:
