Aber Gute Aufforderung das liefert effiziente und zuverlässige Ausgänge ist nicht. Wenn Sprachmodelle in Bezug auf Fähigkeiten und Vielseitigkeit wachsen, hängt von hoher Qualitätsergebnisse mehr ab wie du fragst das Modell als das Modell selbst. Hier kommt immediate Tag für Tag praktische integrierte Erfahrung in Produktionsumgebungen, mit täglich Tausenden von Anrufen.
In diesem Artikel teile ich Fünf praktische schnelle technische Techniken Ich benutze quick jeden Tag, um stabile und zuverlässige, leistungsstarke KI-Workflows zu bauen. Es sind nicht nur Tipps, über die ich gelesen habe, sondern auch Methoden, die ich getestet, verfeinert und auf reale Anwendungsfälle in meiner Arbeit angewiesen habe.
Einige mögen kontraintuitiv erscheinen, andere überraschend einfach, aber alle haben einen wirklichen Unterschied in meiner Fähigkeit, die Ergebnisse, die ich von LLMs erwarte, zu erzielen. Lassen Sie uns eintauchen.
Tipp 1 – Bitten Sie die LLM, eine eigene Eingabeaufforderung zu schreiben
Diese erste Technik könnte sich anfühlen kontraintuitivaber es ist eine, die ich die ganze Zeit benutze. Anstatt zu versuchen, die perfekte Eingabeaufforderung von Anfang an zu erstellen, beginne ich normalerweise mit einer groben Übersicht dessen, was ich will, und dann bitte ich das LLM zu Verfeinern Sie die ideale Aufforderung für selbstbasierend auf zusätzlichem Kontext, den ich anbietet. Das Co-Development-Strategie ermöglicht die schnelle Produktion von sehr präzise und effektive Aufforderungen.
Der Gesamtprozess besteht häufig aus drei Schritten:
- Beginnen Sie mit der allgemeinen Struktur, in der Aufgaben und Regeln befolgt werden sollen
- Iterative Bewertung/Verfeinerung der Aufforderung, dem gewünschten Ergebnis übereinzustimmen
- Iterative Integration von Kantenfällen oder spezifischen Anforderungen
Sobald die LLM eine Eingabeaufforderung vorschlägt, führe ich sie ein paar aus Typische Beispiele. Wenn die Ergebnisse ausgeschaltet sind, optimiere ich die Eingabeaufforderung nicht nur manuell. Stattdessen bitte ich die LLM darum und frage speziell nach eine generische Korrekturwie LLMs dazu neigt, Dinge auf zu spezifische Weise zu patchen. Sobald ich die gewünschte Antwort für die 90 -Prozent -Fälle erhalten habe, leite ich sie im Allgemeinen auf a Stapel der Eingabedaten Analyse der Kantenfälle, die angegangen werden müssen. Anschließend übermittele ich das Drawback an das LLM, in dem das Drawback erläutert wird, während ich die Eingabe und den Ousput einreiche, um die Eingabeaufforderungen iterativ zu optimieren und das gewünschte Ergebnis zu erzielen.
Ein guter Tipp, der im Allgemeinen viel hilft, ist Um die LLM zu verlangen, dass sie Fragen stellen, Bevor Sie schnelle Änderungen vorschlagen, um sicherzustellen, dass sie die Notwendigkeit vollständig versteht.
Warum funktioniert das so intestine?
A. Es ist sofort besser strukturiert.
Insbesondere bei komplexen Aufgaben hilft das LLM dabei, den Problemraum auf eine Weise zu strukturieren, die beides ist logisch Und operativ. Es hilft mir auch klären Sie mein eigenes Denken. Ich vermeide es, in Syntax festgefahren zu werden und mich darauf zu konzentrieren, das Drawback selbst zu lösen.
B. Es reduziert Widersprüche.
Da die LLM die Aufgabe in ihre «eigenen Wörter» übersetzt, ist es weitaus wahrscheinlicher, dass Sie Mehrdeutigkeit oder Widersprüche erkennen. Und wenn dies der Fall ist, bittet es häufig zur Klärung, bevor es eine sauberere, konfliktfreie Formulierung vorschlägt. Immerhin, wer ist es besser, eine Nachricht zu formulieren als Derjenige, der es interpretieren soll?
Stellen Sie sich das vor, als würde man mit einem Menschen kommunizieren: Ein erheblicher Teil der Missverständnisse ergibt sich aus unterschiedlichen Interpretationen. Das LLM findet manchmal etwas Unklares oder Widersprüchliches, das ich für völlig offensichtlich hielt … und am Ende ist es derjenige, der den Job macht, additionally ist es es ist Interpretation, die zählt, nicht meine.
C. Es verallgemeinert besser.
Manchmal kämpfe ich darum, eine klare, abstrakte Formulierung für eine Aufgabe zu finden. Das LLM ist überraschend intestine darin. Es entdeckt das Muster und erzeugt eine verallgemeinerte Eingabeaufforderung, die skalierbarer und robuster für das ist, was ich selbst produzieren könnte.
Tipp 2-Selbstbewertung verwenden
Die Idee ist einfach, aber wieder einmal sehr mächtig. Das Ziel ist zu Zwingen Sie die LLM, die Qualität seiner Antwort selbst zu bewerten bevor Sie es ausgeben. Insbesondere frage ich es seine eigene Antwort bewerten Auf einer vordefinierten Skala beispielsweise von 1 bis 10. Wenn die Punktzahl unter einem bestimmten Schwellenwert liegt wiederholen oder verbessern Die Antwort, abhängig von der Aufgabe. Ich füge manchmal das Konzept hinzu, dass „wenn Sie es besser machen können“, um eine endlose Schleife zu vermeiden.
In der Praxis finde ich es faszinierend, dass ein LLM dazu neigt, sich ähnlich wie Menschen zu verhalten: Es geht oft für die einfachste Antwort und nicht die beste eins. Schließlich werden LLMs auf menschliche erzeugte Daten trainiert und sollen daher die Antwortmuster replizieren. Deshalb geben Sie ihm eine Explizite Qualitätsstandard hilft, das endgültige Ausgangsergebnis erheblich zu verbessern.
Ein ähnlicher Ansatz kann für a verwendet werden Letzte Qualitätskontrolle konzentrieren sich auf die Einhaltung der Regel. Die Idee ist, die LLM zu bitten, seine Antwort zu überprüfen und zu bestätigen, ob eine bestimmte Regel oder alle Regeln vor dem Senden der Antwort befolgt werden. Dies kann dazu beitragen, die Antwortqualität zu verbessern, insbesondere wenn manchmal eine Regel übersprungen wird. Nach meiner Erfahrung ist diese Methode jedoch etwas weniger effektiv als eine selbst zugewiesene Qualitätsbewertung. Wenn dies erforderlich ist, bedeutet dies wahrscheinlich, dass Ihre Eingabeaufforderung oder Ihr KI -Workflow verbessert werden muss.
Tipp 3 – Verwenden Sie eine Antwortstruktur sowie ein gezielter Beispiel, das Format und Inhalt kombiniert
Beispiele zu verwenden ist eine bekannte und leistungsstarke Artwork, um die Ergebnisse zu verbessern… Solange du es nicht übertreibt. Ein intestine ausgewähltes Beispiel ist in der Tat oft hilfreicher als viele Unterrichtszeilen.
Die Antwortstruktur hingegen hilft dabei, genau zu definieren, wie die Ausgabe aussehen sollte, insbesondere für technische oder sich wiederholende Aufgaben. Es vermeidet Überraschungen und hält die Ergebnisse konsistent.
Das Beispiel ergänzt diese Struktur, indem angezeigt wird, wie sie mit verarbeiteten Inhalten gefüllt werden. Diese «Struktur + Beispiel» Die Kombination arbeitet in der Regel intestine.
Beispiele sind jedoch oft texthaarigeund zu vielen von ihnen können es können die wichtigsten Regeln verdünnen oder dazu führen, dass sie weniger konsequent verfolgt werden. Sie erhöhen auch die Anzahl der Token, die Nebenwirkungen verursachen können.
Verwenden Sie additionally Beispiele mit Bedacht: Ein oder zwei intestine ausgewählte Beispiele, die die meisten Ihrer wesentlichen oder Kantenregeln abdecken, reichen normalerweise aus. Das Hinzufügen von mehr lohnt sich möglicherweise nicht. Es kann auch helfen, a hinzuzufügen kurze Erklärung Nach dem Beispiel, warum es der Anfrage entspricht, insbesondere wenn dies nicht wirklich offensichtlich ist. Ich persönlich verwende selten unfavorable Beispiele.
Normalerweise gebe ich ein oder zwei optimistic Beispiele zusammen mit einer allgemeinen Struktur der erwarteten Ausgabe. Meistens wähle ich XML -Tags aus wie <open_tag></close_tag>. Warum? Weil es ist leicht zu analysieren und kann direkt in Informationssystemen zur Nachbearbeitung verwendet werden.
Ein Beispiel zu geben ist besonders nützlich, wenn die Struktur verschachtelt ist. Es macht die Dinge viel klarer.
## Right here is an instance
Anticipated Output :
<objects>
<merchandise>
<sub_item>
<sub_sub_item>
My sub sub merchandise 1 textual content
</sub_sub_item>
<sub_sub_item>
My sub sub merchandise 2 textual content
</sub_sub_item>
</sub_item>
<sub_item>
My sub merchandise 2 textual content
</sub_item>
<sub_item>
My sub merchandise 3 textual content
</sub_item>
</merchandise>
<merchandise>
<sub_item>
My sub merchandise 1 textual content
</sub_item>
<sub_item>
<sub_sub_item>
My sub sub merchandise 1 textual content
</sub_sub_item>
</sub_item>
</merchandise>
</objects>
Clarification :
Textual content of the reason
Tipp 4 – Komplexe Aufgaben in einfache Schritte zerlegen
Dieser magazine offensichtlich erscheinen, aber es ist wichtig, um die Antwortqualität im Umgang mit komplexen Aufgaben hoch zu halten. Die Idee ist Eine große Aufgabe in mehrere kleinere, intestine definierte Schritte aufzuteilen.
Genau wie das menschliche Gehirn kämpft, wenn es Multitasking hat, liefern LLMs dazu, Antworten von geringerer Qualität zu erzielen, wenn die Aufgabe zu weit gefasst ist oder zu viele verschiedene Ziele gleichzeitig mit sich bringt. Wenn ich Sie beispielsweise auffordere, 125 + 47, dann 256 – 24 und schließlich 78 + 25, eine nacheinander, sollte dies (hoffentlich :)) in Ordnung sein. Aber wenn ich Sie auf bitte, mir die drei Antworten auf einen Blick zu geben, wird die Aufgabe komplexer. Ich denke gerne, dass sich LLMs genauso verhalten.
Anstatt ein Modell zu bitten, alles auf einmal zu tun, als würde man einen Artikel übersetzen, es übersetzen und es in HTML formatieren, ziehe ich es vor, den Prozess in zwei oder drei einfachere Schritte zu unterteilen, die jeweils von einer separaten Eingabeaufforderung behandelt werden.
Der Hauptabnutzung dieser Methode besteht darin, dass sie Ihrem Code eine gewisse Komplexität verleiht, insbesondere wenn Informationen von einem Schritt zum nächsten übergeben werden. Aber moderne Frameworks mögen Langchainwas ich persönlich liebe und benutze, wenn ich mich mit dieser Scenario befassen muss, und diese Artwork von sequentiellem Aufgabenmanagement sehr einfach zu implementieren.
Tipp 5 – Fragen Sie die LLM um Erklärung
Manchmal ist es schwer zu verstehen Warum Die LLM gab eine unerwartete Antwort. Sie könnten anfangen, Vermutungen zu machen, aber der einfachste und zuverlässigste Ansatz könnte einfach einfach Bitten Sie das Modell, seine Argumentation zu erklären.
Einige mögen sagen, dass die Vorhersage von LLM nicht erlaubt, dass LLM ihre Gründe tatsächlich erklärt, weil es einfach tut nicht Grund, aber meine Erfahrung zeigt das:
1- Meistens wird es effektiv umleiten eine logische Erklärung das hat seine Reaktion hervorgebracht
2- Durch diese Erläuterung werden die sofortige Änderung vorgenommen, korrigiert im Allgemeinen die falsche Beantwortung von LLM.
Natürlich ist dies kein Beweis dafür, dass die LLM tatsächlich argumentiert, und Es ist nicht meine Aufgabe, dies zu beweisenAber ich kann sagen, dass diese Lösung für die sofortige Optimierung sehr intestine in Pratice funktioniert.
Diese Technik ist besonders hilfreich bei der Entwicklung, Vorproduktion oder sogar in den ersten Wochen nach dem Dwell. In vielen Fällen ist es schwierig, alle möglichen Randfälle in einem Prozess zu antizipieren, der auf einem oder mehreren LLM -Anrufen beruht. Zu verstehen können Warum Das Modell, das eine bestimmte Antwort erzeugt hat, hilft Ihnen dabei, die genaueste Behebung zu entwerfen, die das Drawback löst, ohne an anderer Stelle unerwünschte Nebenwirkungen zu verursachen.
Abschluss
Die Arbeit mit LLMs ist ein bisschen wie mit einem genialen Praktikant, wahnsinnig schnell und fähig, aber oft unordentlich und in alle Richtungen, wenn Sie nicht klar sagen, was Sie erwarten. Das Beste aus einem Praktikum herauszuholen, sind klare Anweisungen und ein wenig Managementerfahrung erforderlich. Das gleiche gilt für LLMs, für die Intelligente Aufforderung und Erfahrung machen den Unterschied.
Die fünf Techniken, die ich oben geteilt habe Praktische Methoden Ich benutze täglich, um zu gehen über generische Ergebnisse hinaus mit Normal -Aufforderungstechnik erhalten und die qualitativ hochwertigen, die ich benötige. Sie helfen mir durchweg, die korrekten Ausgänge in großartige zu verwandeln. Egal, ob es sich um Aufforderungen an das Modell handelt, Aufgaben in überschaubare Teile einteilen oder einfach die LLM fragen Warum Eine Antwort ist was es ist, Diese Strategien sind zu wesentlichen Werkzeugen in meiner täglichen Arbeit geworden, um die besten KI -Workflows zu erstellen, die ich kann.
Bei schnellem Engineering geht es nicht nur darum, klare und intestine organisierte Anweisungen zu schreiben. Es geht um Verständnis Wie Das Modell interpretiert sie und entsprechen Ihren Ansatz entsprechend. Die schnelle Ingenieurwesen sind in einer Artwork Kunst, eine Artwork von Nuance, Finesse und persönlichem Stil, in dem keine zwei schnellen Designer die gleichen Zeilen schreiben, was zu unterschiedlichen Ergebnissen in Bezug auf Stress und Schwächen führt. Immerhin bleibt eine Sache mit LLMs wahr: Je besser Sie mit ihnen sprechen, desto besser arbeiten sie für Sie.
