AFortschritte bei Massive Language Fashions (LLMs) haben die Fantasie der Welt angeregt. Mit der Veröffentlichung von ChatGPT von OpenAIIm November 2022 gelangten bisher unbekannte Begriffe wie Generative AI in den öffentlichen Diskurs. In kurzer Zeit fanden LLMs eine breite Verbreitung Anwendbarkeit in modernen Sprachverarbeitungsaufgaben und sogar den Weg dafür geebnet autonome KI-Agenten. Manche nennen es einen Wendepunkt in der Technologie und ziehen hochtrabende Vergleiche mit dem Aufkommen des Internets oder sogar der Erfindung der Glühbirne. Folglich ist die überwiegende Mehrheit der Wirtschaftsführer, Softwareentwickler und Unternehmer bestrebt, LLMs zu ihrem Vorteil zu nutzen.
Retrieval Augmented Era (RAG) ist eine zentrale Technik, die die Landschaft der angewandten generativen KI prägt. Ein neuartiges Konzept, das Lewis et al. in ihrer wegweisenden Arbeit vorgestellt haben Retrieval-Augmented Era für wissensintensive NLP-AufgabenRAG hat sich schnell zu einem Eckpfeiler entwickelt, der die Zuverlässigkeit und Vertrauenswürdigkeit der Ergebnisse großer Sprachmodelle erhöht.
In diesem Blogbeitrag gehen wir auf die Particulars der Bewertung von RAG-Systemen ein. Aber lassen Sie uns vorher den Kontext schaffen, indem wir den Bedarf an RAG verstehen und uns einen Überblick über die Implementierung von RAG-Pipelines verschaffen.