Prompt Engineering ist die Kunst, Eingabeaufforderungen (“Prompts”) für große Sprachmodelle wie GPT-4 so zu gestalten, dass sie präzise und relevante Antworten liefern. Um dies zu erreichen, ist es entscheidend, einige grundlegende Prinzipien und Techniken zu verstehen und anzuwenden. In diesem Artikel werden wir Ihnen fünf wesentliche Tipps für effektives Prompt Engineering vorstellen.
In der Einfachheit liegt die Kraft
Beim Entwerfen von Prompts ist es ratsam, mit einfachen Anweisungen zu beginnen. Komplexe Aufgaben sollten in kleinere, leichter verständliche Schritte zerlegt werden. Dies hilft nicht nur, die gewünschten Ergebnisse zu erzielen, sondern macht auch den Prozess des Prompt Engineerings übersichtlicher und effizienter.
Beispiel:
Statt:
- „Generiere eine Marktanalyse zur Automobil Industrie“
Versuchen Sie es lieber mit:
- “Wie würdest du eine Marktanalyse strukturieren?”
- „Was sind die wichtigsten Markttrends in der Automobilindustrie im Jahr 2024?“
- „Welche neuen Technologien beeinflussen die Automobilindustrie im Jahr 2024?“
- „Was sind die relevantesten Unternehmen der Automobilindustrie im Jahr 2024?“
- “Fasse bitte die bisherigen Erkenntnisse Zusammen, nutze deine Vorgeschlagene Struktur”
Warum ist das sinnvoller?
Große Sprachmodelle wie GPT-4 arbeiten effizienter, wenn sie klare und spezifische Anweisungen erhalten. Dies liegt daran, dass sie besser auf einzelne, konkrete Aufgaben reagieren können, anstatt komplexe und vielschichtige Fragen gleichzeitig zu bearbeiten. Eine schrittweise Zerlegung von Aufgaben hilft dem Modell, relevantere und präzisere Antworten zu liefern, da es den Kontext und die spezifischen Anforderungen jeder Teilaufgabe besser versteht.
Vermeiden Sie Unklarheiten
Je detaillierter und spezifischer die Eingabeaufforderung, desto besser die Antworten des Modells. Dies hilft dem Modell, den Kontext und die Anforderungen besser zu verstehen und relevante Informationen zu liefern.
Statt „Erkläre die Vorteile von Online Marketing“ zu fragen, wäre es besser zu formulieren:
- „Erkläre die Vorteile des Online Marketings und wie es sich von traditionellen Marketingmethoden unterscheidet, unter besonderer Berücksichtigung der sozialen Medien.“
Warum ist das sinnvoller?
Sprachmodelle sind darauf trainiert, Texte zu verstehen und zu generieren, die präzise und kontextbezogen sind. Wenn die Eingabeaufforderung spezifisch ist, kann das Modell den Kontext besser erfassen und relevante Datenpunkte aus seinem Trainingswissen extrahieren. Dies führt zu Antworten, die genauer auf die gestellte Frage zugeschnitten sind und somit von höherer Qualität sind.
Geben Sie dem Modell “Zeit zum Nachdenken”
Manchmal ist es hilfreich, das Modell zu bitten, seine Gedankengänge schrittweise zu erläutern, bevor es eine endgültige Antwort gibt. Dies kann die Genauigkeit und Qualität der Antworten verbessern.
Statt:
- „Wie können wir die Kundenzufriedenheit verbessern?“ zu fragen, könnte man detaillierter vorgehen:
- „Beschreibe die Schritte zur Verbesserung der Kundenzufriedenheit. Denke Schritt für Schritt.“
Warum ist das sinnvoller?
Wenn Sprachmodelle dazu aufgefordert werden, ihre Gedankengänge schrittweise zu erklären, verwenden sie eine strukturierte Methode, um den Kontext reflektierend zu berücksichtigen. Dies liegt wahrscheinlich daran, dass Large Language Models (LLM) Tokens sequenziell generieren und eine schrittweise Anleitung einen Gedankengang simuliert. Diese Technik wurde im 'Chain-of-thought Prompting' Paper empirisch erörtert.
Beispiele einbeziehen (Few-Shot Prompting)
Few-Shot Prompting ist eine Technik, bei der dem Modell einige Beispiele gegeben werden, um ihm zu zeigen, wie es auf ähnliche Eingaben reagieren soll. Dies kann besonders hilfreich sein, um das gewünschte Format oder den gewünschten Stil zu verdeutlichen und die Präzision der Antworten zu erhöhen.
- „…“
- „Generiere deine Ausgabe, wie in den Beispielen, im folgenden Format: <Bezeichnung>: <Zusammenfassung> “
- „Beispiel #1: Spesen: Die Spesen Richtlinie finden Sie im Intranet unter…“
- „Beispiel #2: Urlaubsantrag: Der Freigabeprozess für einen Urlaubsantrag wird…“
- „…“
Warum ist das sinnvoller?
LLMs erreichen durch Beispiele eine bessere Mustererkennung und kontextuelle Anpassung, was zu präziseren und relevanteren Antworten führt. Indem konkrete Beispiele bereitgestellt werden, lernt das Modell, die Struktur und den Kontext der Aufgabe besser zu verstehen und anzuwenden.
Wiederholung der Aufforderung am Ende
Bei besonders langen Prompts kann es hilfreich sein das wichtigste nochmal am Ende der Prompt zu wiederholen.
- “Generiere mir eine strukturierte Zusammenfassung des folgenden Sachbuchs im HTML Format. Der Inhalt folgt:”
- <Auszug des Kompletten Sachbuchs>
- „Bitte vergiss nicht, die Zusammenfassung als HTML zu formatieren”
Warum ist das sinnvoller?
Aufgrund des sogenannten 'Lost-in-the-middle'-Problems kann es vorkommen, dass sich Large Language Models (LLMs) bei besonders langen Prompts (mehrere Zehntausend Tokens) vorrangig auf den Anfang und das Ende der Eingabe konzentrieren. Dies führt dazu, dass weniger relevante Informationen am Ende als wichtiger betrachtet werden können und das LLM einige Details des anfänglichen Prompts 'vergisst'.
Zusammenfassung
In der Einfachheit liegt die Kraft: Zerlege komplexe Aufgaben in einfache, klare Anweisungen, um präzisere Antworten zu erhalten.
Vermeiden Sie Unklarheiten: Formuliere Eingabeaufforderungen detailliert und spezifisch, um dem Modell zu helfen, den Kontext besser zu verstehen.
Geben Sie dem Modell "Zeit zum Nachdenken": Bitte das Modell, Gedankengänge schrittweise zu erläutern, um die Genauigkeit und Qualität der Antworten zu verbessern.
Beispiele einbeziehen (Few-Shot Prompting): Verwende Beispiele, um das gewünschte Format und den Stil zu verdeutlichen und die Präzision der Antworten zu erhöhen.
Wiederholung der Aufforderung am Ende: Wiederholen Sie bei langen Prompts die wichtigsten Anweisungen am Ende, um sicherzustellen, dass das Modell die relevantesten Informationen nicht “vergisst”.
Quellen
[2201.11903] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (arxiv.org)
Related resources from around the web | OpenAI Cookbook