In den letzten Jahren hat es in der KI viele erstaunliche Entwicklungen gegeben. ChatGPT kam erstmals im November 2022 auf den Markt. Es warfare ein bemerkenswerter Durchbruch, der weltweit für Schlagzeilen sorgte. ChatGPT und andere KI-Startups steigern die Nachfrage nach Softwareentwicklern.

In jüngerer Zeit haben wir auch von einigen neueren Entwicklungen in der KI gehört. Erst heute gab Microsoft bekannt, dass dies der Fall ist Einführung neuer KI-Mitarbeiter das Anfragen bearbeiten kann.

Eine der größten Entwicklungen ist jedoch die Gründung von RAG. Lesen Sie weiter, um zu erfahren, welche Auswirkungen es auf unsere Zukunft hat.

RAG ist das neueste glänzende Spielzeug mit KI

Wenn wir über KI, Retrieval Augmented Technology (RAG) und dergleichen sprechen, ist es hilfreich, sich einen LLM als Particular person vorzustellen.

Wir haben alle den Satz „Allesbewerber, kein Meister“ gehört, und das trifft auf große Sprachmodelle (LLMs) zu. In ihrer Standardform sind LLMs generalistisch. IBM hat einen tollen Überblick darüber.

Wenn Sie möchten, dass ein LLM an einem Unternehmen beteiligt ist und entweder produktive Ergebnisse erzielt oder Entscheidungen trifft – um über die allgemeine Ausrichtung hinauszugehen –, müssen Sie ihm etwas über Ihr Unternehmen beibringen, und Sie müssen ihm viel beibringen! Die Liste ist lang, aber als Grundlage müssen Sie ihr die grundlegenden Fähigkeiten für die Ausführung einer Aufgabe, die Organisation und die Prozesse der Organisation, das gewünschte Ergebnis und potenzielle Probleme beibringen und sie mit dem Kontext versorgen, der zur Lösung des Issues erforderlich ist aktuelles Downside. Sie müssen ihm auch alle notwendigen Werkzeuge zur Verfügung stellen, um entweder eine Änderung herbeizuführen oder mehr zu erfahren. Dies ist eines der neuesten Beispiele dafür Möglichkeiten, wie KI Unternehmen helfen kann.

Auf diese Weise ist der LLM einer Particular person sehr ähnlich. Wenn Sie jemanden einstellen, beginnen Sie damit, die Fähigkeiten zu finden, die Sie benötigen. Sie helfen ihm, Ihr Unternehmen zu verstehen, informieren ihn über den Geschäftsprozess, in dem er arbeitet, geben ihm Zielvorgaben und Zielvorgaben, schulen ihn in seiner Arbeit und geben ihm Werkzeuge an die Hand ihre Aufgabe.

Für die Menschen wird dies alles durch formelle und informelle Schulungen sowie die Bereitstellung guter Werkzeuge erreicht. Für ein großes Sprachmodell wird dies mit RAG erreicht. Wenn wir additionally die Vorteile der KI in einem Unternehmen nutzen wollen, müssen wir bei RAG sehr intestine werden.

Was ist additionally die Herausforderung?

Eine der Einschränkungen moderner Massive Language Fashions ist die Menge an Kontextinformationen, die für jede einzelne Aufgabe bereitgestellt werden können, die das LLM ausführen soll.

RAG bietet diesen Kontext. Daher ist die Vorbereitung eines prägnanten und genauen Kontexts von entscheidender Bedeutung. Es ist dieser Kontext, der dem Modell die Besonderheiten Ihres Unternehmens und die Aufgabe vermittelt, die Sie ihm stellen. Geben Sie einem LLM die richtige Frage und den richtigen Kontext und er wird eine Antwort geben oder eine Entscheidung treffen, genauso wie ein Mensch (wenn nicht sogar besser).

Es ist wichtig, den Unterschied zu machen, dass Menschen durch Handeln lernen; LLMs lernen nicht auf natürliche Weise, sie sind statisch. Um das LLM zu lehren, müssen Sie diesen Kontext sowie eine Feedbackschleife erstellen, die diesen RAG-Kontext aktualisiert, damit er beim nächsten Mal besser abschneidet.

Die Effizienz der Artwork und Weise, wie dieser Kontext kuratiert wird, ist sowohl für die Leistung des Modells von entscheidender Bedeutung, steht aber auch in direktem Zusammenhang mit den Kosten. Je größer der Aufwand zur Schaffung dieses Kontexts ist, desto teurer wird das Projekt, sowohl zeitlich als auch in Bezug auf die tatsächlichen Kosten.

Wenn dieser Kontext nicht korrekt ist, werden Sie außerdem unendlich mehr Zeit damit verbringen, das Modell zu korrigieren, zu optimieren und zu verbessern, anstatt sofort Ergebnisse zu erzielen.

Das macht KI zu einem Datenproblem.

Es ist schwierig, den für LLMs erforderlichen Kontext zu schaffen, da dafür viele Daten benötigt werden – idealerweise alles, was Ihr Unternehmen weiß und das related sein könnte. Und dann müssen diese Daten auf die relevantesten Informationen reduziert werden. Selbst in der datengesteuertesten Organisation ist das keine leichte Aufgabe.

In Wirklichkeit haben die meisten Unternehmen große Teile ihres Datenbestands lange Zeit vernachlässigt, insbesondere die weniger strukturierten Daten, die dazu gedacht sind, Menschen (und damit LLMs) beizubringen, wie sie ihre Arbeit erledigen sollen.

LLMs und RAG bringen ein uraltes Downside noch mehr ans Licht: Daten liegen in Silos vor, die schwer zu erreichen sind.

Wenn man bedenkt, dass wir es jetzt sowohl mit unstrukturierten als auch mit strukturierten Daten zu tun haben, haben wir es mit noch mehr Silos zu tun. Der Kontext, der erforderlich ist, um einen Mehrwert aus der KI zu ziehen, bedeutet, dass es beim Umfang der Daten nicht mehr nur darum geht, Zahlen aus Salesforce abzurufen. Wenn Unternehmen den wahren Wert der KI erkennen wollen, benötigen sie auch Schulungsmaterialien für das Onboarding von Menschen, PDFs, Anrufprotokolle usw. die Liste geht weiter.

Für Unternehmen ist die Übergabe von Geschäftsprozessen an KI eine große Herausforderung, aber die Organisationen mit der besten Fähigkeit, kontextbezogene Daten zu kuratieren, sind dafür am besten geeignet.

Im Kern sind „LLM + Kontext + Instruments + menschliche Aufsicht + Feedbackschleife“ der Schlüssel dazu, dass KI nahezu jeden Geschäftsprozess beschleunigt.

Matillion kann auf eine lange und erfolgreiche Geschichte zurückblicken, wenn es darum geht, Kunden bei der produktiven Nutzung von Daten zu unterstützen. Seit mehr als einem Jahrzehnt entwickeln wir unsere Plattform weiter – von BI zu ETL, jetzt zur Information Productiveness Cloud – und fügen Bausteine ​​hinzu, die es unseren Kunden ermöglichen, die neuesten technologischen Fortschritte optimum zu nutzen und so ihre Datenproduktivität zu verbessern. KI und RAG sind keine Ausnahmen. Wir haben unserem Software die Bausteine ​​hinzugefügt, die es Kunden ermöglichen, RAG-Pipelines zusammenzustellen und zu testen, um Daten für die Vektorspeicher vorzubereiten, die RAG antreiben; Bereitstellung der Instruments, um diesen überaus wichtigen Kontext mit dem LLM zusammenzustellen, und Bereitstellung der Instruments, die für Suggestions und Zugriff auf die Qualität der LLM-Antworten erforderlich sind.

Wir eröffnen den Zugang zu RAG-Pipelines, ohne dass schwer zu findende Datenwissenschaftler oder große Investitionen erforderlich sind, sodass Sie LLMs nutzen können, die nicht mehr nur ein „Alleskönner“, sondern ein wertvolles und wertvolles Werkzeug sind bahnbrechender Teil Ihrer Organisation.



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert