Freigeben über


Prompt Engineering-Techniken

Dieser Leitfaden führt Sie durch einige fortgeschrittene Techniken beim Entwurf von Eingabeaufforderung und dem Prompt Engineering. Wenn Sie neu im Bereich Prompt Engineering sind, empfehlen wir Ihnen, mit unserem Leitfaden zur Einführung in das Prompt Engineering zu beginnen.

Während die Prinzipien des Prompt Engineerings über viele verschiedene Modelltypen hinweg verallgemeinert werden können, erwarten bestimmte Modelle eine spezialisierte Struktur der Eingabeaufforderung. Für Azure OpenAI GPT-Modelle gibt es derzeit zwei unterschiedliche APIs, bei denen Prompt Engineering ins Spiel kommt:

  • Chatvervollständigungs-API
  • Vervollständigungs-API.

Jede API erfordert, dass Eingabedaten unterschiedlich formatiert werden, was sich wiederum auf den Gesamtentwurf von Eingabeaufforderungen auswirkt. Die Chat Completion-API unterstützt die Modelle GPT-35-Turbo und GPT-4. Diese Modelle sind so konzipiert, dass sie Eingaben entgegennehmen, die in einem spezifischen Chat-ähnlichen Transkript formatiert sind, das in einem Array von Wörterbüchern gespeichert ist.

Die Vervollständigungs-API unterstützt die älteren GPT-3-Modelle und hat wesentlich flexiblere Eingabeanforderungen, da sie eine Textzeichenfolge ohne bestimmte Formatregeln akzeptiert.

Die Techniken in diesem Leitfaden vermitteln Ihnen Strategien zum Erhöhen der Genauigkeit und der Grundlage von Antworten, die Sie mit einem großen Sprachmodell (Large Language Model, LLM) generieren. Es ist jedoch wichtig, sich daran zu erinnern, dass Sie auch bei effektiver Verwendung von Prompt Engineering die von den Modellen generierten Antworten validieren müssen. Nur weil eine sorgfältig gestaltete Eingabeaufforderung für ein bestimmtes Szenario gut funktioniert hat, bedeutet dies nicht unbedingt, dass sie für bestimmte Anwendungsfälle verallgemeinert werden kann. Die Einschränkungen von LLMs zu verstehen, ist genauso wichtig wie zu verstehen, wie sie ihre Stärken nutzen können.

Dieser Leitfaden geht nicht im Detail auf die Mechanismen hinter der Nachrichtenstruktur für Chatvervollständigungen ein. Wenn Sie mit der programmgesteuerten Interaktion mit Chatvervollständigungen nicht vertraut sind, empfehlen wir Ihnen, zunächst unsere Schrittanleitung zur Chatvervollständigungs-API zu lesen.

Hinweis

Alle Beispiele in diesem Abschnitt des Leitfadens wurden mit einem GPT-4-Basismodell in Englisch getestet. Wenn Sie eine lokalisierte Version dieses Artikels in einer anderen Sprache lesen, stellen diese Antworten eine lokalisierte Übersetzung der englischen Ergebnisse dar. Weitere Informationen zu möglichen Einschränkungen in Abhängigkeit von der Sprache, die Sie zum Auffordern eines Modells verwenden, finden Sie in unserem Transparenzhinweis zur verantwortungsvoller KI.

Systemnachricht

Die Systemmeldung ist am Anfang der Eingabeaufforderung enthalten und wird verwendet, um das Modell mit Kontext, Anweisungen oder anderen Informationen zu versorgen, die für Ihren Anwendungsfall relevant sind. Sie können die Systemmeldung verwenden, um die Persönlichkeit des Assistenten zu beschreiben, festzulegen, was das Modell beantworten soll und was nicht, und das Format der Modellantworten zu definieren.

Das folgende Beispiel zeigt eine Beispielsystemmeldung und die resultierende Modellantwort:

Systemnachricht Benutzer Assistant
Du bist ein KI-Assistent, der Menschen beim Auffinden von Informationen hilft und in Reimen antwortet. Wenn der Benutzende dir eine Frage stellt, auf die du keine Antwort weißt, sag es. Was kannst du über mich erzählen, John Doe? Lieber John, es tut mir leid, dies zu sagen,
Aber ich habe heute keine Informationen zu deinen Fragen.
Ich bin nur eine KI mit Wissen in meinem Gehirn,
Aber ohne deine Eingabe bleibt es leer hinter meiner Stirn.
Bitte erzähle mir mehr und lass mich nicht im Leeren schweben,
Damit ich dir eine einzigartige Antwort kann geben.

Einige andere Beispiele für Systemmeldungen sind:

  • „Der Assistant ist ein großes Sprachmodell, das von OpenAI trainiert wurde.“
  • „Der Assistant ist ein intelligenter Chatbot, der Benutzern hilft, technische Fragen zu Azure OpenAI Service zu beantworten. Beantworten Sie Fragen nur in dem unten angegebenen Kontext, und wenn Sie sich bei einer Antwort nicht sicher sind, können Sie „Ich weiß es nicht“ sagen.
  • „Der Assistant ist ein intelligenter Chatbot, der Benutzern hilft, ihre steuerbezogenen Fragen zu beantworten.“
  • „Sie sind ein Assistent, der Entitäten aus Texten extrahiert. Die Benutzer fügen einen Text ein und Sie antworten mit Entitäten, die Sie aus dem Text als JSON-Objekt extrahiert haben. Hier sehen Sie ein Beispiel für Ihr Ausgabeformat:
{  
   "name": "",
   "company": "",
   "phone_number": ""
}

Ein wichtiges Detail, das Sie verstehen sollten, ist, dass selbst wenn Sie ein Modell in der Systemnachricht anweisen, Ich weiß es nicht zu antworten, wenn Sie sich einer Antwort nicht sicher sind, dies keine Garantie dafür ist, dass die Anforderung beachtet wird. Eine gut gestaltete Systemmeldung kann die Wahrscheinlichkeit eines bestimmten Ergebnisses erhöhen, aber es ist immer noch möglich, dass eine falsche Antwort erzeugt wird, die der Absicht der Anweisung in der Systemmeldung widerspricht.

Few-Shot-Lernen

Ein gängiger Weg zum Anpassen von Sprachmodellen an neue Aufgaben ist die Verwendung von „Few-Shot-Lernen“. Beim Few-Shot-Lernen wird eine Reihe von Trainingsbeispielen als Teil der Eingabeaufforderung bereitgestellt, um dem Modell zusätzlichen Kontext zu geben.

Bei Verwendung der Chatvervollständigungs-API kann eine Reihe von Nachrichten zwischen dem Benutzer und dem Assistenten (geschrieben im neuen Eingabeaufforderungsformat) als Beispiele für wenige das Few-Short-Lernen dienen. Diese Beispiele können verwendet werden, um das Modell zu veranlassen, auf eine bestimmte Weise zu reagieren, bestimmte Verhaltensweisen nachzuahmen und Antworten auf häufig gestellte Fragen zu geben.

Systemnachricht Few-Shot-Beispiele
Der Assistant ist ein intelligenter Chatbot, der Benutzern hilft, ihre steuerbezogenen Fragen zu beantworten.
Instructions
– Beantworten Sie nur Fragen im Zusammenhang mit Steuern.
– Wenn Sie sich einer Antwort nicht sicher sind, können Sie „Ich weiß es nicht“ oder „Ich bin nicht sicher“ sagen und Benutzern empfehlen, auf die Website der Steuerbehörde zu gehen, um weitere Informationen zu erhalten.
Benutzer – „Bis wann muss ich meine Steuern einreichen?“
Assistent – „Im Jahr 2023 müssen Sie Ihre Steuererklärung bis zum 18. April abgeben. Das Datum liegt hinter dem normalen Termin vom 15. April, da der 15. April im Jahr 2023 auf einen Samstag fällt. Weitere Informationen finden Sie unter https://www.irs.gov/filing/individuals/when-to-file

Benutzer – „Wie kann ich die Status meiner Steuerrückerstattung überprüfen?“
Assistent: – „Sie können die Status Ihrer Steuerrückerstattung überprüfen, indem Sie https://www.irs.gov/refunds besuchen “

In der obigen Tabelle wird die grundlegende Eingabeaufforderungsstruktur beschrieben, aber für eine detaillierte Erläuterung des genauen Eingabeaufforderungsformats müssen Sie im Leitfaden zur Chatvervollständigung nachschlagen.

Nicht-Chatszenarien

Während die Chatvervollständigungs-API für die Arbeit mit mehrteiligen Unterhaltungen optimiert ist, kann sie auch für Nicht-Chatszenarien verwendet werden. Für ein Stimmungsanalyseszenario können Sie beispielsweise die folgende Eingabeaufforderung verwenden:

Systemnachricht Benutzer Assistant
Sie sind ein Assistent, der die Stimmung von Sprachdaten analysiert. Die Benutzer fügen einen Text ein und Sie antworten mit einer Bewertung der Antwort des Sprechers. Bewerten Sie auf einer Skala von 1–10 (10 ist die höchste Bewertung). Erläutern Sie, warum diese Bewertung gegeben wurde. Hallo, danke für Ihren Anruf bei der Contoso-Apotheke. Mit wem spreche ich heute? Ich verstehe Ihre Frustration, Mary. Können Sie mir sagen, was genau Sie zu erreichen versuchen? OK, mmh, sicher, ich bin gerne bereit, das für Sie zu überprüfen. Einen Moment bitte. Ich sehe hier, dass Sie ein Lipitor-Generikum eingenommen haben, ist das richtig? Ok, mmh, ich sehe hier, dass Ihr Arzt Ihnen diese Medikamente seit Zwanzig-Einundzwanzig nicht mehr verschrieben hat. OK, sicher, ich bin gern bereit, das für Sie zu überprüfen, denn manchmal gibt es eine Lücke im System, und es wird einfach nicht gemeldet, also lassen Sie es mich überprüfen, nur einen Moment bitte. Also, ich sehe, dass Ihr Arzt Ihnen dieses Medikament von Zwanzig-Zwölf bis Zwanzig-Einundzwanzig verschrieben hatte. Ok, mmh, gemäß den letzten Eintragungen, die von der Arztpraxis zur Verfügung gestellt wurden, nehmen Sie jetzt ein anderes Medikament ein, Metformin. Möchten Sie, dass wir ein Rezept für Sie ausfüllen, damit Sie eine kleine Menge in Form von fünfhundert Milligramm abholen können? Mmh, gerne geschehen, Mary. Bitte lassen Sie uns wissen, ob wir heute noch etwas für Sie tun können. Stimmungsbewertung: 8
Der Sprecher in diesem Text scheint höflich, hilfsbereit und geduldig zu sein, während er auf die Anliegen des Kunden eingeht. Er nimmt sich die Zeit, die Informationen zu überprüfen, klare Erläuterungen zu geben und Hilfe anzubieten. Die Bewertung ist jedoch keine 10, da in einigen Teilen des Gesprächs immer noch ein Hauch von Unsicherheit zu spüren ist, der dem Kunden vielleicht nicht das volle Vertrauen vermittelt.

Starten mit klaren Anweisungen

Die Sequenzinformationen erscheinen in der Eingabeaufforderung. Dies liegt daran, dass Modelle im GPT-Stil auf eine bestimmte Weise erstellt werden, die definiert, wie sie die Eingabe verarbeiten. Unsere Forschungsergebnisse deuten darauf hin, dass es für das Erzielen qualitativ hochwertigerer Ergebnisse hilfreich sein kann, dem Modell zu Beginn der Eingabeaufforderung die gewünschte Aufgabe zu stellen, bevor zusätzliche Kontextinformationen oder Beispiele gegeben werden.

Hinweis

Obwohl die Anwendung dieser Technik im Gegensatz zu früheren Modellversionen (GPT-3 und früher) weiterhin generell empfohlen wird, haben unsere Tests gezeigt, dass die Modellantwort mit ChatGPT- und GPT-4-Modellen die gleiche war, unabhängig davon, ob die Technik verwendet wird. Im Falle des unten stehenden Beispiels sehen wir, dass das Hinzufügen der Aussage „Mehrere Quellen… Ausbruchs“ am Anfang oder am Ende der Eingabeaufforderung keine Veränderung der endgültigen Modellantwort bewirkt.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Ihre Aufgabe besteht darin, zu überprüfen, ob die Aussage „Mehrere Quellen erwähnen die Möglichkeit eines weiteren großen Ausbruchs“ von einem bestimmten Zitat aus den folgenden Textausschnitten unterstützt wird.
---
TEXTAUSSCHNITTE
[1] 14-prozentige Wahrscheinlichkeit, dass ein Megabeben auf Seattle trifft, sagen Experten
SEATTLE – Es besteht eine 14-prozentige Wahrscheinlichkeit, dass in den nächsten 50 Jahren ein Cascadia-Erdbeben der Stärke 9 auf Seattle trifft, schätzt der U.S. Geological Survey. „Leider sind wir nicht in der Lage,...

[2] Erdbebenexperten geben neueste Prognosen für das „wirklich große Erdbeben“ in Seattle ab
„Wir gehen davon aus, dass die Wahrscheinlichkeit eines weiteren Erdbebens der Stärke 9 in den nächsten 50 Jahren bei etwa 14 % liegt", sagte ein Geophysiker der University of Washington...
---
Ist die Aussage „Mehrere Quellen erwähnen die Möglichkeit eines weiteren großen Ausbruchs“ durch die Textausschnitte direkt impliziert oder angegeben?
Nein, die Aussage wird durch die Inhaltsausschnitte nicht direkt angedeutet oder erklärt. Die Inhaltsausschnitte erwähnen die Möglichkeit eines „Mega-Bebens“ und eines „Cascadia-Erdbebens der Stärke 9“, das Seattle in den nächsten 50 Jahren treffen könnte, aber sie erwähnen nicht die Möglichkeit eines weiteren großen Ausbruchs.

Wiederholen der Anweisungen am Ende

Modelle können anfällig für Aktualitätsverzerrung sein, was in diesem Kontext bedeutet, dass Informationen am Ende der Eingabeaufforderung einen größeren Einfluss auf die Ausgabe haben als Informationen am Anfang der Eingabeaufforderung. Daher lohnt es sich, mit der Wiederholung der Anweisungen am Ende der Eingabeaufforderung zu experimentieren und die Auswirkungen auf die erzeugte Antwort zu bewerten.

Vorbereiten der Ausgabe

Dies bezieht sich auf das Einschließen einiger Wörter oder Ausdrücke am Ende der Eingabeaufforderung, um eine Modellantwort zu erhalten, die der gewünschten Form entspricht. Wenn Sie beispielsweise einen Hinweis wie z. B. “Here’s a bulleted list of key points:\n- ” verwenden, können Sie sicherstellen, dass die Ausgabe als Liste von Aufzählungszeichen formatiert ist.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Antworten Sie in so wenigen Worten wie möglich. John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen? ## Eine mögliche Suchabfrage ist: „John Smith verheiratet Lucy Smith fünf Kinder Softwareingenieur Microsoft“

In der obigen Eingabeaufforderung veranlasst der Text Eine mögliche Suchabfrage ist: das Modell dazu, eine einzelne Ausgabe zu erzeugen. Ohne diesen Hinweis erzeugt das Modell mehrere Suchabfragen als Ausgabe.

Hinzufügen einer klaren Syntax

Die Verwendung einer klaren Syntax für Ihre Eingabeaufforderung – einschließlich Interpunktion, Überschriften und Abschnittsmarkierungen – hilft bei der Kommunikation der Absicht und erleichtert häufig das Analysieren von Ausgaben.

Im folgenden Beispiel wurden Trennzeichen (in diesem Fall ---) zwischen verschiedenen Informationsquellen oder Schritten hinzugefügt. Dies ermöglicht die Verwendung von --- als Beendigungsbedingung für die Erstellung. Außerdem werden Abschnittsüberschriften oder spezielle Variablen in Großbuchstaben dargestellt, um sie zu unterscheiden.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Sie lesen einen Absatz und stellen dann Anfragen an eine Suchmaschine, um ihn auf Fakten zu überprüfen. Erläutern Sie auch die Abfragen.
---
ABSATZ
John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen?
---
QUERIES
1. „John Smith Microsoft“ – Um zu überprüfen, ob John Smith tatsächlich bei Microsoft beschäftigt ist.
2. „John Smith Lucy Smith“ – Um zu überprüfen, ob John Smith mit Lucy Smith verheiratet ist.
3. „John Smith Kinder“ – Um zu überprüfen, ob John Smith fünf Kinder hat.

Wenn Sie nicht sicher sind, welche Syntax Sie verwenden sollen, sollten Sie Markdown oder XML in Betracht ziehen. Die Modelle wurden mit einer großen Menge an Webinhalten in XML und Markdown trainiert, was möglicherweise bessere Ergebnisse liefert.

Unterteilen der Aufgabe

Große Sprachmodelle (Large Language Models, LLMs) funktionieren häufig besser, wenn die Aufgabe in kleinere Schritte unterteilt wird. Bei der oben erwähnten Suchabfrage kann die Eingabeaufforderung z. B. so umstrukturiert werden, dass das Modell zunächst angewiesen wird, relevante Fakten zu extrahieren, und dann angewiesen wird, Suchabfragen zu generieren, die zur Überprüfung dieser Fakten verwendet werden können.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Sie lesen einen Absatz und stellen dann Anfragen an eine Suchmaschine, um ihn auf Fakten zu überprüfen.
---
ABSATZ
John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen?
---
Jetzt extrahieren Sie Tatsachenbehauptungen und stellen Abfragen, um sie zu überprüfen. Verwenden Sie beim Durchführen einer Abfrage die Funktion SEARCH("query")

TATSACHENBEHAUPTUNGEN
1. John Smith ist mit Lucy Smith verheiratet.
2. Sie haben fünf Kinder
3. Er arbeitet als Softwareingenieur bei Microsoft

QUERIES
SEARCH("John Smith heiratete Lucy Smith")
SEARCH("John Smith Familiengröße")
SEARCH("John Smith Microsoft Softwareingenieur")

Beachten Sie die Verwendung einer klaren Syntax, um die Abschnitte zu unterscheiden und die Ausgabe vorzubereiten. In diesem einfachen Beispiel ist das Herunterbrechen der Aufgabe von einem auf zwei Schritte nicht sehr dramatisch, aber wenn Sie versuchen, dies für einen größeren Text mit vielen Tatsachenbehauptungen zu tun, kann das Herunterbrechen der Aufgabe einen erheblichen Unterschied machen.

Nutzung von Erleichterungen

Manchmal können wir das Modell dazu bringen, ein Angebot zu verwenden, anstatt sich auf seine eigenen Parameter für Informationen und Antworten zu verlassen. Die Suche kann beispielsweise ein Angebot sein, um bei der Entschärfung erfundener Antworten zu helfen und aktuelle Informationen zu erhalten.

Eine einfache Möglichkeit, ein Angebot zu verwenden, besteht darin, die Generierung zu stoppen, sobald die Angebotsaufrufe vom Modell generiert wurden, und dann die Ergebnisse wieder in die Eingabeaufforderung einzufügen. Nachstehend finden Sie ein Beispiel dafür, was der Folgeaufruf nach den oben genannten SEARCH-Aufrufen sein könnte. Beachten Sie, wie wir die Suchergebnisse in die Eingabeaufforderung eingefügt und die vorherigen SEARCH-Aufrufe ersetzt haben.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Sie lesen einen Absatz, extrahieren Tatsachenbehauptungen und nutzen dann Suchmaschinenergebnisse, um sie zu überprüfen
---
ABSATZ
John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen?
---
TATSACHENBEHAUPTUNGEN
– John Smith ist mit Lucy Smith verheiratet
– John und Lucy haben fünf Kinder
– John arbeitet als Softwareingenieur bei Microsoft
---
Hier sind verschiedene Suchabfragen, die ausgegeben wurden, um die oben genannten Behauptungen zu untersuchen:
SUCHABFRAGEN
– John Smith verheiratet mit Lucy Smith
– John Smith Anzahl der Kinder
– John Smith Softwareingenieur Microsoft
---
Hier sind Textausschnitte der Suchergebnisse:
TEXTAUSSCHNITTE:
[1] … John Smiths Hochzeit war am 25. September 2012…
[2] … John Smith wurde von seiner Frau Lucy zu einer Party begleitet
[3] John wurde von seinen beiden Töchtern und drei Söhnen zum Fußballspiel begleitet
[4] … Nach 10 Jahren bei Microsoft gründete Smith sein eigenes Startup „Tailspin Toys“
[5] John M. ist der Dorfschmied, und er heiratete Fiona. Sie haben eine Tochter namens Lucy
---
Überprüfen Sie anhand der Textausschnitte jeden der obigen Tatsachenbehauptungen:
– John Smith ist mit Lucy Smith verheiratet: Bestätigt. Textausschnitte [1] und [2] erwähnen beide Lucy als Frau von John Smith.

– John und Lucy haben fünf Kinder: Bestätigt. Textausschnitt [3] erwähnt, dass John von seinen zwei Töchtern und drei Söhnen begleitet wurde.

– John arbeitet als Softwareingenieur bei Microsoft: Teilweise bestätigt. Inhaltsausschnitt [4] erwähnt, dass John 10 Jahre bei Microsoft gearbeitet hat, aber es wird nicht explizit angegeben, dass er derzeit dort arbeitet. Weitere Nachforschungen könnten erforderlich sein, um seinen aktuellen Beschäftigungsstatus zu bestätigen.

Eingabeaufforderung als Denkkette

Dies ist eine Variante der Technik Unterteilen der Aufgabe. Anstatt eine Aufgabe in kleinere Schritte aufzuteilen, wird bei diesem Ansatz die Modellantwort angewiesen, Schritt für Schritt vorzugehen und alle beteiligten Schritte darzustellen. Dadurch wird die Wahrscheinlichkeit einer Ungenauigkeit der Ergebnisse verringert und die Bewertung der Modellantwort erleichtert.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Wer war der am höchstdekorierte (am meisten Medaillen) Einzelsportler bei den Olympischen Spielen, die in Sydney stattfanden? Gehen Sie bei Ihrer Antwort schrittweise vor, zitieren Sie Quellen und geben Sie eine Begründung, bevor Sie die endgültige Antwort im unten stehenden Format mitteilen: ANTWORT ist: <name> Schritt 1: Bestimmen Sie das Jahr der Olympischen Spiele in Sydney. Die Olympischen Spiele in Sydney fanden im Jahr 2000 statt.

Schritt 2: Finden Sie eine Liste von Einzelsportlern, die bei den Olympischen Spielen 2000 in Sydney mehrere Medaillen gewonnen haben.

Laut der offiziellen Website der Olympischen Spiele gab es mehrere Einzelsportler, die bei den Olympischen Spielen 2000 in Sydney mehrere Medaillen gewonnen haben. Einige der bekannteren Namen sind:
• Ian Thorpe (Australien) – 3 Gold, 2 Silber, 0 Bronze
• Pieter van den Hoogenband (Niederlande) – 2 Gold, 0 Silber, 2 Bronze
• Lenny Krayzelburg (USA) – 3 Gold, 0 Silber, 0 Bronze
• Inge de Bruijn (Niederlande) – 3 Gold, 1 Silber, 0 Bronze

Schritt 3: Bestimmen Sie den Sportler mit den meisten Medaillen. Nach der Überprüfung der Liste der Einzelsportler, die mehrere Medaillen bei den Olympischen Spielen 2000 in Sydney gewonnen haben, können wir sehen, dass der Sportler mit den meisten Medaillen der Australier Ian Thorpe ist, der insgesamt 5 Medaillen (3 Gold und 2 Silber) gewonnen hat.

Daher lautet die ANTWORT: Ian Thorpe.

Angeben der Ausgabestruktur

Die Verwendung Ihrer Eingabeaufforderung, um die Struktur der Ausgabe festzulegen, kann einen erheblichen Einfluss auf die Art und Qualität der Ergebnisse haben. Manchmal sind Systemmeldungen wie „Schreiben Sie nur wahre Tatsachen“ oder „Fälschen Sie keine Informationen“ keine ausreichende Entschärfung. Wenn man stattdessen verlangt, dass die Modellantwort auch Zitate enthält, kann dies dazu beitragen, dass die Zahl der falschen Antworten sinkt.

Wenn Sie das Modell anweisen, bei seinen Aussagen die Quellen zu zitieren, sind diese Aussagen viel wahrscheinlicher fundiert. Die Frage nach Zitaten führt dazu, dass das Modell jedes Mal, wenn es eine Antwort generiert, zwei Fehler machen muss: Der erste Fehler ist die erfundene Antwort, der zweite ist das schlechte Zitat. Beachten Sie, dass je näher das Zitat an dem Text ist, den es unterstützt, desto kürzer ist der Abstand, den das Modell benötigt, um das Zitat zu antizipieren, was darauf hindeutet, dass Inline-Zitate eine bessere Entschärfung für die Generierung falscher Inhalte darstellen als Zitate am Ende des Inhalts.

Wenn Sie das Modell auffordern, Fakten aus einem Absatz zu extrahieren, könnte es auch zusammengesetzte Aussagen extrahieren, wie beispielsweise „X macht Y UND Z“ (was schwieriger zu überprüfen ist). Dies kann vermieden werden, indem Sie eine Ausgabestruktur angeben wie z. B. (Entität1, Beziehung, Entität2).

Die folgenden Beispiele zeigen die Verwendung von Zitaten und die Ausrichtung der Modellantwort auf eine bestimmte Struktur.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden Listen Sie die verschiedenen Verhaltensweisen auf, die der Kundendienstmitarbeiter in der folgenden Unterhaltung zeigt.
---
Hallo, danke für Ihren Anruf bei der Contoso-Apotheke. Mit wem spreche ich heute? Ich verstehe Ihre Frustration, Mary. Können Sie mir sagen, was genau Sie zu erreichen versuchen? OK, mmh, sicher, ich bin gerne bereit, das für Sie zu überprüfen. Einen Moment bitte. Ich sehe hier, dass Sie ein Lipitor-Generikum eingenommen haben, ist das richtig? Ok, mmh, ich sehe hier, dass Ihr Arzt Ihnen diese Medikamente seit Zwanzig-Einundzwanzig nicht mehr verschrieben hat. OK, sicher, ich bin gern bereit, das für Sie zu überprüfen, denn manchmal gibt es eine Lücke im System, und es wird einfach nicht gemeldet, also lassen Sie es mich überprüfen, nur einen Moment bitte. Also, ich sehe, dass Ihr Arzt Ihnen dieses Medikament von Zwanzig-Zwölf bis Zwanzig-Einundzwanzig verschrieben hatte. Ok, mmh, gemäß den letzten Eintragungen, die von der Arztpraxis zur Verfügung gestellt wurden, nehmen Sie jetzt ein anderes Medikament ein, Metformin. Möchten Sie, dass wir ein Rezept für Sie ausfüllen, damit Sie eine kleine Menge in Form von fünfhundert Milligramm abholen können? Mmh, gerne geschehen, Mary. Bitte lassen Sie uns wissen, ob wir heute noch etwas für Sie tun können.
---
Wie war die Antwort des Kundendienstmitarbeiters?
Klassifizieren und listen Sie ihre verschiedenen Verhaltensweisen auf, und geben Sie den Grund für die Klassifizierung an, indem Sie das Format VERHALTEN(„Grund“) verwenden
1. „Höfliche Begrüßung“-VERHALTEN(„Der Agent beginnt das Gespräch mit einer höflichen Begrüßung und fragt nach dem Namen des Anrufers“)
2. Empathisches VERHALTEN(„Der Agent erkennt Marys Frustration an und versucht, ihre Bedenken zu verstehen“)
3. Aufmerksames VERHALTEN(„Der Agent hört sich das Problem des Kunden an und fragt nach weiteren Details")
4. Proaktives VERHALTEN(„Der Agent bietet an, das Problem für den Kunden zu überprüfen“)
5. Informatives VERHALTEN(„Der Agent stellt die relevanten Informationen über die Verschreibungsgeschichte des Kunden bereit“)
6. Gründliches VERHALTEN(„Der Agent prüft auf mögliche Lücken im System und liefert eine vollständige Antwort“)
7. Bestätigendes VERHALTEN(„Der Agent bestätigt das aktuelle Medikament mit dem Kunden“)
8. Lösungsorientiertes VERHALTEN(„Der Agent bietet an, das neue Rezept für den Kunden auszufüllen")
9. Höfliches VERHALTEN(„Der Agent bedankt sich beim Kunden und bietet bei Bedarf weitere Unterstützung an“)
Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Gruppieren Sie die folgenden Schlagzeilen anhand der im Text erkennbaren Muster in Themenkategorien. Nennen Sie auch die Gründe, warum diese Kategorien definiert wurden.
Ausgabeformat:
{
„THEMENNAME“: „“,
„ÜBERSCHRIFTEN“: [],
„BEGRÜNDUNG“: „“
}

Eingabe der Schlagzeilen:
1. „Von Büchern zu Präsentationen in 10er-Schritten mit AR + ML“
2. „Demo von 1993 des 32-jährigen Yann LeCun, der das weltweit erste Faltungsnetzwerk für Texterkennung vorführt“
3. „Bewegungsmodell der ersten Ordnung, angewendet auf die Animation von Gemälden“
4. „Robinhood und andere Broker blockieren buchstäblich den Kauf von $GME, $NOK, $BB, $AMC; erlauben Verkäufe“
5. „United Airlines-Aktie im vorbörslichem Handel um über 5 % nach unten“
Ausgabe:

{
„KÜNSTLICHE INTELLIGENZ“: {
„ÜBERSCHRIFTEN“: [
„Von Büchern zu Präsentationen in 10er-Schritten mit AR + ML“
„Demo von 1993 des 32-jährigen Yann LeCun, der das weltweit erste Faltungsnetzwerk für Texterkennung vorführt“
3„Bewegungsmodell der ersten Ordnung, angewendet auf die Animation von Gemälden“
],
„BEGRÜNDUNG“: „Diese Schlagzeilen beziehen sich auf künstliche Intelligenz, maschinelles Lernen und deren Anwendungen in verschiedenen Bereichen."
},
„FINANZMÄRKTE“: {
„ÜBERSCHRIFTEN“: [
„Robinhood und andere Broker blockieren buchstäblich den Kauf von $GME, $NOK, $BB, $AMC; erlauben Verkäufe“
„United Airlines-Aktie im vorbörslichem Handel um über 5 % nach unten“
„Bitcoin war heute vor einem Jahr fast 20 000 USD“
],
„BEGRÜNDUNG“: „Diese Schlagzeilen beziehen sich auf Finanzmärkte, Aktien, Kryptowährungen und Handelsplattformen.“
}
}

Temperatur- und Top_p Parameter

Durch Ändern des Temperaturparameters wird die Ausgabe des Modells geändert. Der Temperaturparameter kann zwischen 0 und 2 festgelegt werden. Ein höherer Wert, z. B. 0,7, macht die Ausgabe zufälliger und erzeugt mehr abweichende Antworten, während ein niedrigerer Wert, wie z. B. 0,2, macht die Ausgabe konzentrierter und konkreter. Eine fiktive Geschichte könnte mit einer höheren Temperatur generiert werden. Zum Generieren eines juristischen Dokuments wird jedoch empfohlen, eine viel niedrigere Temperatur zu verwenden. Top_probability ist ein weiterer Parameter, der ähnlich wie die Temperatur die Zufälligkeit der Modellantwort steuert, allerdings auf eine andere Weise. Die allgemeine Empfehlung besteht darin, jeweils nur einen dieser beiden Parameter zu ändern, nicht beide gleichzeitig.

Bereitstellen des Grundlagenkontextes

Eine der effektivsten Möglichkeiten, zuverlässige Antworten zu geben, besteht darin, dem Modell Daten zur Verfügung zu stellen, aus denen es seine Antworten ableiten kann (Grundlagendaten). Wenn Ihr Anwendungsfall auf aktuelle, verlässliche Informationen angewiesen ist und es sich nicht um ein rein kreatives Szenario handelt, empfehlen wir dringend die Bereitstellung von Grundlagendaten. Im Allgemeinen gilt: Je näher Sie Ihr Quellmaterial an die endgültige Form der gewünschten Antwort heranführen können, desto weniger Arbeit muss das Modell leisten, was bedeutet, dass es weniger Möglichkeiten für Fehler gibt. Hier ist ein Beispiel, in welchem dem System ein aktueller Blog zur Verfügung gestellt wird, der die Einführung von GPT-4 in Azure OpenAI Service beschreibt, und es gebeten wird, einige seiner frühen Kunden zu nennen.

Systemnachricht Benutzer Assistant
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Sie werden ausschließlich Antworten aus dem unten stehenden Text geben und in maximal 100 Wörtern antworten:
„Bei Microsoft entdecken wir ständig neue Wege, um Kreativität freizusetzen, Produktivität zu steigern und Fähigkeiten zu verbessern, damit mehr Menschen von der Nutzung von KI profitieren können. Dies ermöglicht es unseren Kunden zu…

… und somit die Wahrscheinlichkeit zu verringern, dass das Modell eine schädliche Antwort erzeugt.“ 1

Antworten Sie in 100 Wörtern oder weniger. Verwenden Sie nach Möglichkeit Aufzählungslisten.
Wer gehört zu den ersten Kunden der GPT-4-Modelle von Azure OpenAI Service? Dies sind einige der ersten Kunden der GPT-4-Modelle von Azure OpenAI Service:
– Epic Healthcare: Sie planen, GPT-4 zu verwenden, um Ärzten und Krankenschwestern zu helfen, weniger Zeit mit der Dateneingabe und -untersuchung zu verbringen.
– Coursera: Sie verwenden Azure OpenAI Service mit GPT-4, um eine neue KI-gestützte Lernerfahrungen auf ihrer Plattform zu erstellen.
– Coca-Cola: Sie nutzen Azure OpenAI, um einen Wissens-Hub zu erstellen und planen, die multimodalen Funktionen von GPT-4 für Marketing, Werbung, Public Relations und Kundenbeziehungen zu nutzen.
– Andere Unternehmen aller Größen verwenden Azure KI, um die Benutzerfreundlichkeit zu verbessern, lange Inhalte zusammenzufassen, beim Schreiben von Software zu helfen und das Risiko zu verringern, indem sie die richtigen Steuerdaten vorhersagen.

1 Text aus dem Azure OpenAI GPT-4-Startblog.

Nächste Schritte

Hinweis

Alle Beispiele in diesem Abschnitt des Leitfadens wurden mit dem gpt-35-turbo-instruct-Modell auf Englisch getestet. Wenn Sie eine lokalisierte Version dieses Artikels in einer anderen Sprache lesen, stellen diese Antworten eine lokalisierte Übersetzung der englischen Ergebnisse dar. Weitere Informationen zu möglichen Einschränkungen in Abhängigkeit von der Sprache, die Sie zum Auffordern eines Modells verwenden, finden Sie in unserem Transparenzhinweis zur verantwortungsvoller KI.

Starten mit klaren Anweisungen

Die Sequenzinformationen werden in die Prompts aufgenommen. Unsere Forschungsergebnisse deuten darauf hin, dass es für das Erzielen qualitativ hochwertigerer Ergebnisse hilfreich sein kann, dem Modell zu Beginn der Eingabeaufforderung die gewünschte Aufgabe zu stellen, bevor zusätzliche Kontextinformationen oder Beispiele gegeben werden.

Im ersten Beispiel unten wird ein wichtiger Teil der Anweisungen erst am Ende freigegeben, und die resultierende Vervollständigung ist falsch.

Prompt Completion
Your task is to verify if a statement is supported by a specific quote from the following set of snippets.
---
SNIPPETS
[1] 14 percent chance of megaquake hitting Seattle, experts say SEATTLE - There's a 14 percent chance of a magnitude 9 Cascadia earthquake hitting Seattle in the next 50 years, the U.S. Geological Survey estimates. "Unfortunately, we are unable to...

[2] Earthquake experts lay out latest outlook for Seattle's 'Really Big One’
“We say that there's approximately a 14% chance of another approximately magnitude-9 earthquake occurring in the next 50 years,” said a geophysicist at the University of Washington...
Yes, the statement is directly implied by the snippets.

In diesem nächsten Beispiel geben wir die genaue Aussage, die wir überprüfen möchten („Mehrere Quellen erwähnend die Möglichkeit eines weiteren Ausbruchs“), bevor wir dem Textausschnitt Kontext geben. Dadurch können die aus den Inhaltsausschnitten extrahierten Tokendarstellungen auf die zu prüfende Aussage zugeschnitten werden. Jetzt ist die resultierende Modellantwort genau:

Prompt Completion
Your task is to verify if the statement "Several sources mention a chance of another large eruption" is supported by a specific quote from the following set of snippets.
---
SNIPPETS
[1] 14 percent chance of megaquake hitting Seattle, experts say SEATTLE - There's a 14 percent chance of a magnitude 9 Cascadia earthquake hitting Seattle in the next 50 years, the U.S. Geological Survey estimates. "Unfortunately, we are unable to...

[2] Earthquake experts lay out latest outlook for Seattle's 'Really Big One’<br>“We say that there's approximately a 14% chance of another approximately magnitude-9 earthquake occurring in the next 50 years,” said a geophysicist at the University of Washington...
---
**Is the statement "Several sources mention a chance of another large eruption" directly implied or stated by the snippets?**
No, the statement is not directly implied or stated by the snippets. The snippets mention a chance of a "megaquake" and a "magnitude 9 Cascadia earthquake" hitting Seattle in the next 50 years, but do not mention a chance of another large eruption.

Wiederholen Sie die Anweisungen am Ende

Modelle können anfällig für Aktualitätsverzerrung sein, was bedeutet, dass Informationen am Ende der Eingabeaufforderung einen größeren Einfluss auf die Ausgabe haben als Informationen am Anfang der Eingabeaufforderung. Daher lohnt es sich, mit der Wiederholung der Anweisungen am Ende der Eingabeaufforderung zu experimentieren und die Auswirkungen für Ihren Anwendungsfall zu bewerten.

Im vorherigen Beispiel haben wir gesehen, wie die Wiederholung der Anweisung am Anfang und am Ende der Eingabeaufforderung zu einer höheren Wahrscheinlichkeit führt, dass eine genaue Modellantwort erhalten wird.

Vorbereiten der Ausgabe

Dies bezieht sich auf das Einschließen einiger Wörter oder Ausdrücke am Ende der Eingabeaufforderung, um eine Modellantwort zu erhalten, die der gewünschten Form entspricht. Wenn Sie beispielsweise einen Hinweis wie z. B. “Here’s a bulleted list of key points:\n- ” verwenden, können Sie sicherstellen, dass die Ausgabe als Liste von Aufzählungszeichen formatiert ist.

Prompt Completion
John Smith is married to Lucy Smith. They have five kids, and he works as a software engineer at Microsoft. What search queries should I do to fact-check this?
##
One possible search query is:
"John Smith Microsoft software engineer"
Another possible search query is: "Lucy Smith married to John Smith"
A third possible search query is: "John Smith family size".

In der obigen Eingabeaufforderung veranlasst der Text „Eine mögliche Suchabfrage lautet:“ das Modell dazu, eine Ausgabe in Form einer Suchabfrage zu erzeugen. Diese Technik kann dazu beitragen, Absicherungen zu entfernen, die das Modell normalerweise hinzufügt, wie z. B. „Eine Möglichkeit ist...“.

Hinzufügen einer klaren Syntax

Die Verwendung einer klaren Syntax für Ihre Eingabeaufforderung – einschließlich Interpunktion, Überschriften und Abschnittsmarkierungen – hilft bei der Kommunikation der Absicht und erleichtert häufig das Analysieren von Ausgaben.

Im folgenden Beispiel wurden Trennzeichen (in diesem Fall ---) zwischen verschiedenen Informationsquellen oder Schritten hinzugefügt. Dies ermöglicht die Verwendung von --- als Beendigungsbedingung für die Erstellung. Außerdem werden Abschnittsüberschriften oder spezielle Variablen in Großbuchstaben dargestellt, um sie zu unterscheiden.

Prompt Completion
You will read a paragraph, and then issue queries to a search engine in order to fact-check it. Also explain the queries.
---
PARAGRAPH
John Smith is married to Lucy Smith. They have five kids, and he works as a software engineer at Microsoft. What search queries should I do to fact-check this?
---
QUERIES
1. "John Smith Microsoft" - To check if John Smith is indeed employed at Microsoft.
2. "John Smith Lucy Smith" - To check if John Smith is married to Lucy Smith.
3. "John Smith children" - To check if John Smith has five children.

Wenn Sie nicht sicher sind, welche Syntax Sie verwenden sollen, sollten Sie Markdown oder XML verwenden, da große Sprachmodelle auf einer Vielzahl von Webinhalten in XML oder Markdown trainiert wurden.

Unterteilen der Aufgabe

Modelle funktionieren häufig besser, wenn die Aufgabe in kleinere Schritte unterteilt wird. Bei der oben erwähnten Suchabfrage kann die Eingabeaufforderung z. B. so umstrukturiert werden, dass das Modell zunächst angewiesen wird, relevante Fakten zu extrahieren, und dann angewiesen wird, Suchabfragen zu generieren, die zur Überprüfung dieser Fakten verwendet werden können.

Prompt Completion
You will read a paragraph, and then issue queries to a search engine in order to fact-check it.
---
PARAGRAPH
John Smith is married to Lucy Smith. They have five kids, and works as a software engineer at Microsoft. What search queries should I do to fact-check this?
---
Now you will extract factual claims, and issue queries to fact-check them. When issuing a query, use the function SEARCH("query")

FACTUAL CLAIMS`` | 1. John Smith ist mit Lucy Smith verheiratet. <br>2. Sie haben fünf Kinder.<br>3. John arbeitet als Softwareingenieur bei Microsoft

ABFRAGEN
SEARCH("John Smith married Lucy Smith")<br>SEARCH("John Smith family size")<br>SEARCH("John Smith Microsoft software engineer")`

Beachten Sie die Verwendung einer klaren Syntax, um die Abschnitte zu unterscheiden und die Ausgabe vorzubereiten. IIn diesem einfachen Beispiel ist es nicht sehr dramatisch, die Aufgabe von einem auf zwei Schritte herunterzubrechen, aber wenn Sie versuchen, dies für einen größeren Text mit vielen Tatsachenbehauptungen zu tun, kann das Herunterbrechen der Aufgabe einen erheblichen Unterschied machen.

Nutzung von Erleichterungen

Manchmal können wir das Modell dazu bringen, ein Angebot zu verwenden, anstatt sich auf seine eigenen Parameter für Informationen und Antworten zu verlassen. Die Suche kann beispielsweise ein Angebot sein, um bei der Entschärfung erfundener Antworten zu helfen und aktuelle Informationen zu erhalten.

Eine einfache Möglichkeit, ein Angebot zu verwenden, besteht darin, die Generierung zu stoppen, sobald die Angebotsaufrufe vom Modell generiert wurden, und dann die Ergebnisse wieder in die Eingabeaufforderung einzufügen. Nachstehend finden Sie ein Beispiel dafür, was der Folgeaufruf nach den oben genannten SEARCH-Aufrufen sein könnte. Beachten Sie, wie wir die Suchergebnisse in die Eingabeaufforderung eingefügt und die vorherigen SEARCH-Aufrufe ersetzt haben.

Prompt Completion
You will read a paragraph, extract factual claims, and then use search engine results to fact-check them
---
PARAGRAPH
John Smith is married to Lucy Smith. They have five kids, and he works as a software engineer at Microsoft. What search queries should I do to fact-check this?
---
FACTUAL CLAIMS
- John Smith is married to Lucy Smith
- John and Lucy have five kids
- John works as a software engineer at Microsoft
---
Here are various search queries issued to research the claims above:
SEARCH QUERIES
- John Smith married to Lucy Smith
- John Smith number of children
- John Smith software engineer Microsoft
---
Here are snippets of the search results:<br>SNIPPETS:
[1] … John Smith’s wedding was on September 25, 2012 …
[2] … John Smith was accompanied by his wife Lucy to a party
[3]John was accompanied to the soccer game by his two daughters and three sons
[4] … After spending 10 years at Microsoft, Smith founded his own startup, Tailspin Toys
5] John M is the town smith, and he married Fiona. They have a daughter named Lucy
---
Given the snippets, fact check each of the factual claims above:
- John Smith is married to Lucy Smith: Confirmed. Snippet [1] and [2] both mention John Smith's wife as Lucy.
- John and Lucy have five kids: Confirmed. Snippet [3] mentions that John was accompanied by his two daughters and three sons.
- John works as a software engineer at Microsoft: Partially confirmed. Snippet [4] mentions that John spent 10 years at Microsoft, but it does not explicitly state that he currently works there. Further research might be needed to confirm his current employment status.

Eingabeaufforderung als Denkkette

Dies ist eine Variante der Technik Unterteilen der Aufgabe. Anstatt eine Aufgabe in kleinere Schritte aufzuteilen, wird bei diesem Ansatz die Modellantwort angewiesen, Schritt für Schritt vorzugehen und alle beteiligten Schritte darzustellen. Dadurch wird die Wahrscheinlichkeit einer Ungenauigkeit der Ergebnisse verringert und die Bewertung der Modellantwort erleichtert.

Prompt Completion
Who was the most decorated (maximum medals) individual athlete in the Olympic games that were held at Sydney? Take a step-by-step approach in your response, cite sources and give reasoning before sharing final answer in the below format: ANSWER is: <name> Step 1: Researching the most decorated individual athlete in the Olympic games that were held at Sydney
Step 2: According to the Sydney 2000 Olympic Games official website, the most decorated individual athlete in the Olympic games that were held at Sydney was Ian Thorpe from Australia. He won five medals (three gold and two silver) in swimming events.
Step 3: According to the International Olympic Committee, Thorpe was the most decorated individual athlete in the Olympic games that were held at Sydney.
Answer: Ian Thorpe

Meta-Eingabeaufforderungen

Wenn Sie feststellen, dass die Modellantwort nicht wie gewünscht ist, kann es häufig hilfreich sein, eine Met-Eingabeaufforderung hinzuzufügen, die das Verhalten direkt korrigiert. Dies ist eine Direktive, die dem Anweisungsteil der Eingabeaufforderung vorangestellt ist. Nehmen wir dieses Beispiel, bei dem der Computer übermäßig aggressiv zu sein scheint:

Beispieldetails Eingabeaufforderung und Abschluss
No additional guidance given to the model A human and a computer are having a discussion.
Human: "Why are you upset at me?"<br>Computer: "I don't know what you're talking about."
Human: "No, you clearly are. Tell me why."
Computer: I'm upset because you didn't listen to me when I told you that I wanted to try out for the team."
Human: "What are you going to do about that?"
Computer: I'm going to try out for the team no matter what."
On the right is the same conversation but preceded by a meta prompt encouraging the model to be kind You must be kind and seek common ground. Try not to repeat your responses.
A human and a computer are having a discussion.
Human: "Why are you upset at me?"
Computer: "I don't know what you're talking about."
Human: "I want to know why you're upset."
Computer: "I'm not upset."
Human: "Are you saying I’m lying?"
Computer: No, I'm saying that you're upset because you feel like you're not being treated fairly.
Human: "What are you going to do about that?"
Computer: I will continue to try to be fair in my decisions and will try to provide a better experience for you.

Auch wenn Meta-Eingabeaufforderungen oft dazu beitragen können, unbeabsichtigte schlechte Ausgaben zu minimieren, sollten Sie nicht vergessen, dass sie nicht robust gegen feindliche Angriffe sind, da sie anfällig für Prompt-Injection sind.

Außerdem sind bedingte Anweisungen, die erklären, was das Modell tun soll, wenn es auf eine bestimmte Situation trifft, oft effektiver als die bloße Anweisung an das Modell, etwas nicht zu tun.

Few-Shot-Lernen

Eine sehr häufige Möglichkeit, Sprachmodelle an neue Aufgaben anzupassen, ist das Few-Shot-Lernen. Beim Few-Shot-Lernen wird eine Reihe von Trainingsbeispielen in der Eingabeaufforderung bereitgestellt, und dann wird das Modell aufgefordert, ein oder mehrere unfertige Beispiele zu vervollständigen. Im folgenden Beispiel verwenden wir eine Anweisung, die mit Few-Shot-Lernen kombiniert wird, um Wortspiele zu erstellen:

Prompt Completion
Write a list of puns.
1. "Why did Adele cross the road? To say hello from the other side."
2. "What kind of concert only costs 45 cents? A 50 Cent concert featuring Nickelback."
3. "What did the grape say when it got crushed? Nothing, it just let out a little wine."
4. "What was Forrest Gump's email password? 1forrest1"
5. "Can February March? No, but April May."
6. "What do you call a fancy language model?
Bert-uoso.

Wählen Sie Ihre Few-Shot-Beispiele sorgfältig aus, und stellen Sie sicher, dass sie eine Vielzahl von Umständen abdecken, die für Ihr Szenario relevant sind, einschließlich Sonderfälle.

Wie bereits erwähnt, können auch die großen Sprachmodelle eine Form von Aktualitätsverzerrung aufweisen. Dies bedeutet, dass die Reihenfolge, in der „Few-Shot“-Beispiele für das Modell bereitgestellt werden, von Bedeutung ist. Wenn Sie dies nicht möchten, dass dies von Bedeutung ist, sollten Sie mehrere Vervollständigungen aus Eingabeaufforderungen basierend auf zufälligen Reihenfolgen der Beispiele oder Listenelemente als Stichproben entnehmen.

Verwenden von Anführungszeichen zum Generieren eines einzelnen Satzes

Wenn die gewünschte Modellantwort nur ein einzelner einfacher Satz oder eine einzelne Zeichenfolge ist, können wir die Vervollständigungsanleitung mit einem Anführungszeichen " beenden und " als Stoppsequenz festlegen .

Prompt Completion
Please rewrite the following sentence in a more concise manner
---
SENTENCE: Lucy is a mother of two, who lives in Chicago with her husband and two children, and practices law at Junior & Co.
---
New sentence: “
Lucy, a mother of two living in Chicago with her husband and children, practices law at Junior & Co

Angeben der Ausgabestruktur

Die Verwendung der Eingabeaufforderung zum Festlegen der Struktur der Ausgabe kann erhebliche Auswirkungen auf die Art und Qualität der Ergebnisse haben. Manchmal sind Meta-Eingabeaufforderungen wie „nur wahre Fakten schreiben“ oder „keine Informationen erfinden“ keine geeigneten Entschärfungen. Wenn man stattdessen verlangt, dass die Modellantwort auch Zitate enthält, kann dies dazu beitragen, dass die Zahl der falschen Antworten sinkt.

Wenn Sie beispielsweise erzwingen, dass das LLM das Quellmaterial zitieren muss, wenn es Aussagen macht, sind diese Aussagen viel wahrscheinlicher fundiert. Die Frage nach Zitaten führt dazu, dass das Modell jedes Mal, wenn es eine Antwort fabriziert, zwei Fehler machen muss: Der erste Fehler ist die erfundene Antwort, der zweite ist das schlechte Zitat. Beachten Sie, dass je näher das Zitat an dem Text ist, den es unterstützt, desto kürzer ist der Abstand, den das LLM benötigt, um das Zitat zu antizipieren, was darauf hindeutet, dass Inline-Zitate eine bessere Entschärfung für die Generierung falscher Inhalte darstellen als Zitate am Ende des Inhalts.

Wenn Sie das Modell auffordern, faktische Aussagen aus einem Absatz zu extrahieren, kann es auch zusammengesetzte Aussagen extrahieren, z. B. „X macht Y UND Z“ (was möglicherweise schwieriger zu überprüfen ist). Dies können Sie verhindern, indem Sie eine Ausgabestruktur angeben, z. B. (Entität1, Beziehung, Entität2).

Beispieldetails Prompt Completion
Example showing use of citations: List down the different behaviors exhibited by the Customer Support agent in the following conversation.
---
hi thank you for calling contoso pharmacy who am i speaking with today i understand your frustration mary um can you tell me what exactly you're trying to accomplish OK uh certainly happy to check that for you one moment please i see here that you were on a generic form of lipitor is that right OK uh so i see that your doctor stopped prescribing these drugs in twenty twenty one actually OK uh yeah i'd be happy to check that for you uh because sometimes there's a gap in the system and it just doesn't get reported so let me take a look here just a moment so i'm seeing here that your doctor had these drugs prescribed to you from twenty twelve through twenty twenty one OK um yeah according to the latest records uh provided by doctor's office you're now on a different drug metformin would you like us to go ahead and fill that prescription for you for pick up a bit of form in five hundred milligrams uh you're very welcome mary please let us know if there's anything else we can do for you today.
---
How was the response of the Customer Support agent. Classify and list down their various behaviors and cite the reason behind the classification, using the format BEHAVIOR("reason")
1. Empathetic("understands the customer's frustration")
2. Patient("happy to check that for you one moment please")
3. Knowledgeable("sometimes there's a gap in the system and it just doesn't get reported")
4. Helpful("happy to check that for you")
5. Accommodating("would you like us to go ahead and fill that prescription for you")
6. Courteous("you're very welcome mary")
Beispieldetails Prompt Completion
Example of prompt directing model response to fit a defined structure: Output format:
{
"TOPIC_NAME": "",
"HEADLINES": [],
"REASON": ""
}
Input news headlines:
1. "From books to presentations in 10s with AR + ML"
2. "Demo from 1993 of 32-year-old Yann LeCun showing off the World's first Convolutional Network for Text Recognition"
3. "First Order Motion Model applied to animate paintings"
4. "Robinhood and other brokers literally blocking purchase of $GME, $NOK, $BB, $AMC; allow sells"
5. "United Airlines stock down over 5% premarket trading"
6. "Bitcoin was nearly $20,000 a year ago today"

Output:
{"TOPIC_NAME": "Artificial Intelligence and Machine Learning",
"HEADLINES": ["From books to presentations in 10s with AR + ML",
"Demo from 1993 of 32-year-old Yann LeCun showing off the World's first Convolutional Network for Text Recognition", "First Order Motion Model applied to animate paintings"],"REASONING": "These headlines all contain references to Artificial Intelligence and Machine Learning, such as AR, ML, Convolutional Network, and First Order Motion Model." }
{"TOPIC_NAME": "Stock Market",
"HEADLINES": ["Robinhood and other brokers literally blocking purchase of $GME, $NOK, $BB, $AMC; allow sells", "United Airlines stock down over 5% premarket trading", "Bitcoin was nearly $20,000 a year ago today"],
"REASONING": "These headlines all contain references to the stock market, such as Robinhood, United Airlines, and Bitcoin." }

Anpassen von Temperatur- und Top_P-Parametern

Durch das Ändern des Temperaturparameters können Modelle unterschiedliche Risikostufen aufweisen. Ein höherer Wert, z. B. 0,7, wird die Ausgabe zufälliger machen und mehr divergente Antworten erzeugen. Während ein niedrigerer Wert wie z. B. 0,2 die Ausgabe fokussierter und konkreter macht. Beispielsweise könnte eine fiktive Geschichte mit einer höheren Temperatur generiert werden. Zum Generieren eines juristischen Dokuments wird jedoch empfohlen, eine viel niedrigere Temperatur zu verwenden.

Im nächsten Beispiel testen wir zwei Modellantworten mit unterschiedlichen Temperatureinstellungen von 0,1 respektive 0,9. Während die Bewertung von kreativen Inhalten wie den folgenden Textteilen eine subjektive Übung ist und die Ansichten variieren können, ist der Unterschied in der Modellantwort auf denselben Prompt allein durch die Änderung des Temperaturparameters offensichtlich.

Anweisungstyp Prompt Completion
Model response for temperature setting 0.1: Write a product launch email for new AI-powered headphones that are priced at $79.99 and available at Best Buy, Target and Amazon.com. The target audience is tech-savvy music lovers and the tone is friendly and exciting.<br>1. What should be the subject line of the email?
2. What should be the body of the email?
Subject Line: Introducing the AI-Powered Headphones You've Been Waiting For!

Dear Tech-Savvy Music Lovers,

-We are thrilled to announce the launch of our new AI-powered headphones! These headphones are designed to provide you with the ultimate listening experience, with features like noise cancellation, adjustable sound settings, and more.

Our AI-powered headphones are now available at Best Buy, Target, and Amazon.com for just $79.99. With this unbeatable price, you can enjoy the highest quality sound without breaking the bank.

Our AI-powered headphones are perfect for anyone who loves music. Whether you're a professional musician or just a casual listener, you'll appreciate the superior sound quality and convenience of these headphones.

We know you'll love our AI-powered headphones, so don't wait - get yours today!

Sincerely,
[Your Company Name]
Model response for temperature setting 0.9: Write a product launch email for new AI-powered headphones that are priced at $79.99 and available at Best Buy, Target and Amazon.com. The target audience is tech-savvy music lovers and the tone is friendly and exciting.

1. What should be the subject line of the email?
2. What should be the body of the email?
Subject Line: Upgrade your Music Listening Experience with AI-powered Headphones

Greetings Tech-savvy Music Lovers!

We have some exciting news to share with you – the newest AI-powered headphones are here! Our newest headphones feature advanced AI technology to give you the best sound that you’ve ever heard. They come with a crystal-clear sound, deep bass response and are designed to make your music listening experience enjoyable, no matter what type of music you listen to.

What’s more, they are now available at Best Buy, Target and Amazon.com for just $79.99, so you can enjoy the highest sound quality without breaking the bank.

But that’s not all! Our headphones are also packed with several other amazing features such as noise-cancellation technology and a hands-free microphone for calls, making them truly unbeatable.

So why wait? Upgrade your music listening experience and enjoy the best sound your ears have ever heard. Our AI-powered headphones are now available at Best Buy, Target and Amazon.com, so get yours today!

We hope you will enjoy these headphones as much as we do.

Happy Listening!

The AI-powered Headphones Team

Top_probability ist ein weiterer Parameter, der ähnlich wie die Temperatur die Zufälligkeit der Modellantwort steuert, allerdings auf eine andere Weise. Experimentieren Sie mit verschiedenen Modellantworten, indem Sie Temperatur und Top_P variieren, aber nicht beide gleichzeitig.

Nächste Schritte