Das einzige Eingabeframework für jeden Einsatzzweck
Bild von freestockcenter auf Freepik

Mit dem Aufkommen großer Sprachmodelle ist Immediate Engineering zu einer unverzichtbaren Fähigkeit geworden. Vereinfacht ausgedrückt geht es beim Prompting darum, wie Menschen mit Maschinen interagieren. Das Engineering des Prompts schlägt eine effektive Möglichkeit vor, die Anforderung so zu kommunizieren, dass die Antworten der Maschinen kontextbezogen, related und genau sind.

Der Rahmen

Das in diesem Artikel vorgestellte Immediate-Engineering-Framework verbessert Ihre Interaktion mit KI-Systemen erheblich. Lassen Sie uns lernen, leistungsstarke Eingabeaufforderungen zu erstellen, indem wir dem Sechs-Schritte-Framework folgen, das Persona, Kontext und Aufgabe umfasst, und zeigen Sie mir, wie die erwartete Ausgabe und der erwartete Ton aussehen.

EingabeaufforderungsrahmenEingabeaufforderungsrahmenBild vom Autor

1. Individual

Stellen Sie sich eine Persona als die Anlaufstelle oder einen Fachexperten vor, den Sie zur Lösung einer bestimmten Aufgabe kontaktieren würden. Personas sind ähnlich, nur dass der Experte jetzt das Modell ist, mit dem Sie interagieren. Die Persona dem Modell zuzuweisen ist gleichbedeutend damit, ihr eine Rolle oder Identität zuzuweisen, die dabei hilft, das entsprechende Maß an Fachwissen und Perspektive für die anstehende Aufgabe festzulegen.

Beispiel: „Als Experte für Stimmungsanalyse durch Kundendienstgespräche …“

Das anhand eines riesigen Datenkorpus trainierte Modell wird nun angewiesen, das Wissen und die Perspektive eines Datenwissenschaftlers zu nutzen, der eine Stimmungsanalyse durchführt.

2. Kontext

Der Kontext liefert die Hintergrundinformationen und den Aufgabenumfang, die das Modell kennen muss. Ein solches Verständnis der Scenario könnte Fakten, Filter oder Einschränkungen umfassen, die die Umgebung definieren, in der das Modell reagieren muss.

Beispiel: „… Analyse von Anrufaufzeichnungen, um anhand der Anrufdetails zwischen Kunde und Agent die Problembereiche und Gefühle des Kunden zu verstehen“

Dieser Kontext verdeutlicht den speziellen Fall der Callcenter-Datenanalyse. Die Bereitstellung von Kontext ist gleichbedeutend mit einem Optimierungsproblem – die Bereitstellung von zu viel Kontext kann das eigentliche Ziel verschleiern, während die Bereitstellung von zu wenig Kontext die Fähigkeit des Modells, angemessen zu reagieren, einschränkt.

3. Aufgabe

Die Aufgabe ist die spezifische Aktion, die das Modell ausführen muss. Dies ist das gesamte Ziel Ihrer Eingabeaufforderung, das das Modell erfüllen muss. Ich nenne es 2C – klar und prägnant, was bedeutet, dass das Modell in der Lage sein sollte, die Erwartung zu verstehen.

Beispiel: „… analysieren Sie die Daten und lernen Sie, aus jedem zukünftigen Gespräch die Stimmung abzuleiten.“

4. Zeigen Sie mir wie

Beachten Sie, dass es nichts umsonst gibt. Die großen Sprachmodelle haben sich als halluzinierend erwiesen, was bedeutet, dass sie dazu neigen, irreführende oder falsche Ergebnisse zu produzieren. Google Cloud erklärt: „Diese Fehler können durch eine Reihe von Faktoren verursacht werden, darunter unzureichende Trainingsdaten, falsche Annahmen des Modells oder Verzerrungen in den zum Trainieren des Modells verwendeten Daten.“

Eine Möglichkeit, ein solches Verhalten einzuschränken, besteht darin, das Modell zu bitten, zu erklären, wie es zu der Antwort gekommen ist, anstatt nur die endgültige Antwort mitzuteilen.

Beispiel: „Geben Sie eine kurze Erklärung ab, in der Sie die Wörter und die Begründung für die berechnete Stimmung hervorheben.“

5. Erwartete Ausgabe

Meistens benötigen wir die Ausgabe in einem bestimmten Format, das klar strukturiert und leicht verständlich ist. Je nachdem, wie der Benutzer die Informationen aufnimmt, kann die Ausgabe in Kind einer Liste, einer Tabelle oder eines Absatzes organisiert sein.

Beispiel: „Teilen Sie die Antwort auf die Anrufzusammenfassung in einem 2-Zeiger-Format mit, einschließlich der Kundenstimmung und Schlüsselwörtern, die die Stimmungskategorie widerspiegeln …“

6. Ton

Obwohl die Angabe des Tons oft als elective angesehen wird, hilft sie dabei, die Sprache an das beabsichtigte Publikum anzupassen. Es gibt verschiedene Tonarten, mit denen das Modell seine Antwort ändern kann, z. B. lässig, direkt, fröhlich usw.

Beispiel: „Verwenden Sie einen professionellen, aber dennoch zugänglichen Ton und vermeiden Sie nach Möglichkeit übermäßig technischen Fachjargon.“

Alles zusammenfügen

Großartig, wir haben additionally alle sechs Elemente des Eingabeaufforderungsrahmens besprochen. Lassen Sie uns sie nun zu einer einzigen Eingabeaufforderung kombinieren:

„Als Experte für Stimmungsanalyse durch Kundendienstgespräche analysieren Sie Anrufaufzeichnungen, um die Problembereiche der Kunden und ihre Stimmungen anhand der Anrufdetails zwischen Kunde und Agent zu verstehen. Analysieren Sie die Daten und lernen Sie, die Stimmung aus jedem zukünftigen Gespräch zu berechnen. Geben Sie eine kurze Erklärung ab, in der Sie die Wörter und die Gründe für die berechnete Stimmung hervorheben. Teilen Sie die Antwort für die Anrufzusammenfassung in einem 2-Punkte-Format mit, einschließlich der Kundenstimmung und Schlüsselwörtern, die die Stimmungskategorie widerspiegeln. Verwenden Sie einen professionellen, aber zugänglichen Ton und vermeiden Sie nach Möglichkeit übermäßig technischen Fachjargon.“

Vorteile effektiver Eingabeaufforderungen

Dieses Framework legt nicht nur die Grundlage für eine klare Frage, sondern fügt auch den notwendigen Kontext hinzu und beschreibt die Persona, um die Antwort auf die jeweilige Scenario zuzuschneiden. Wenn Sie das Modell auffordern zu zeigen, wie es zu den Ergebnissen gelangt, verleiht dies weitere Tiefe.

Die Kunst des Promptings zu meistern, erfordert Übung und ist ein kontinuierlicher Prozess. Durch das Üben und Verfeinern der Prompting-Fähigkeiten können wir mehr Nutzen aus KI-Interaktionen ziehen.

Es ähnelt dem Experimentdesign beim Erstellen von Modellen für maschinelles Lernen. Ich hoffe, dieses Framework bietet Ihnen eine solide Struktur, aber fühlen Sie sich dadurch nicht eingeschränkt. Verwenden Sie es als Grundlage für weitere Experimente und passen Sie es weiterhin an Ihre spezifischen Anforderungen an.

Vidhi Chugh ist eine KI-Strategin und eine Führungspersönlichkeit im Bereich der digitalen Transformation, die an der Schnittstelle zwischen Produkt, Wissenschaft und Technik arbeitet, um skalierbare Systeme für maschinelles Lernen zu entwickeln. Sie ist eine preisgekrönte Innovationsführerin, Autorin und internationale Rednerin. Ihre Mission ist es, maschinelles Lernen zu demokratisieren und den Fachjargon zu überwinden, damit jeder Teil dieser Transformation sein kann.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert