Freigeben über


LLM-Tool

Mit dem Tool für große Sprachmodelle (LLM) im Eingabeaufforderungsfluss können Sie häufig verwendete große Sprachmodelle wie OpenAI oder Azure OpenAI in Azure AI Foundry Models oder jedes von der Azure AI-Modellinference-API unterstützte Sprachmodell für die Verarbeitung natürlicher Sprachen nutzen.

Der Eingabeaufforderungsfluss bietet einige verschiedene APIs für große Sprachmodelle:

  • Vervollständigung: Die Vervollständigungsmodelle von OpenAI generieren Text basierend auf bereitgestellten Prompts.
  • Chat: Die Chatmodelle von OpenAI und die Azure AI-Chatmodelle erleichtern interaktive Unterhaltungen mit textbasierten Eingaben und Antworten.

Hinweis

Wir haben die embedding Option aus der EINSTELLUNG der LLM-Tool-API entfernt. Sie können eine Einbettungs-API mit dem Einbettungstool verwenden. Für die Azure OpenAI-Verbindung wird nur die schlüsselbasierte Authentifizierung unterstützt. Verwenden Sie keine Nicht-Ascii-Zeichen im Ressourcengruppennamen der Azure OpenAI-Ressource, der Aufforderungsfluss hat diesen Fall nicht unterstützt.

Voraussetzungen

Erstellen Sie die OpenAI-Ressourcen:

Verbindungen

Richten Sie Verbindungen zu bereitgestellten Ressourcen im Prompt Flow ein.

type Name API-Schlüssel API-Typ API-Version
OpenAI Erforderlich Erforderlich - -
Azure OpenAI – API-Schlüssel Erforderlich Erforderlich Erforderlich Erforderlich
Azure OpenAI – Microsoft Entra ID Erforderlich - - Erforderlich
Serverloses Modell Erforderlich Erforderlich - -

Tipp

Eingaben

In den folgenden Abschnitten werden verschiedene Eingaben angezeigt.

Textvervollständigung

Name type Beschreibung Erforderlich
prompt Zeichenfolge Text-Prompt für das Sprachmodell. Ja
Modell, deployment_name Zeichenfolge Zu verwendende Sprachmodell. Ja
maximale_Anzahl_von_Tokens Integer Maximale Anzahl von Token, die im Abschluss generiert werden sollen. Der Standardwert ist 16. Nein
Temperatur Schweben Die Zufälligkeit des generierten Texts Der Standardwert ist 1. Nein
Stopp Liste Die Stoppsequenz für den generierten Text Der Standardwert lautet null. Nein
Suffix Zeichenfolge Am Ende des Abschlusses angefügter Text. Nein
top_p Schweben Die Wahrscheinlichkeit, dass das erste Ergebnis aus den generierten Token verwendet wird Der Standardwert ist 1. Nein
logprobs Integer Anzahl der zu generierenden Protokollwahrscheinlichkeiten. Der Standardwert lautet null. Nein
Echo Boolescher Wert Wert, der angibt, ob die Eingabeaufforderung in der Antwort zurückgegeben werden soll. Der Standardwert ist "false". Nein
presence_penalty Schweben Wert, der das Verhalten des Modells für wiederholte Ausdrücke steuert. Standard ist "0". Nein
frequency_penalty Schweben Wert, der das Verhalten des Modells zum Generieren seltener Ausdrücke steuert. Standard ist "0". Nein
best_of Integer Die Anzahl der besten Zugänge, die generiert werden sollen. Der Standardwert ist 1. Nein
logit_bias Wörterbuch Logit-Verzerrung für das Sprachmodell. Der Standardwert ist ein leeres Wörterbuch. Nein

Plaudern

Name type Beschreibung Erforderlich
prompt Zeichenfolge Textaufforderung, die vom Sprachmodell für eine Antwort verwendet wird. Ja
Modell, deployment_name Zeichenfolge Zu verwendende Sprachmodell. Dieser Parameter ist nicht erforderlich, wenn das Modell in einer Standardbereitstellung bereitgestellt wird. Ja*
maximale_Anzahl_von_Tokens Integer Die maximale Anzahl von Token, die in der Antwort generiert werden. Der Standardwert ist „inf“. Nein
Temperatur Schweben Die Zufälligkeit des generierten Texts Der Standardwert ist 1. Nein
Stopp Liste Die Stoppsequenz für den generierten Text Der Standardwert lautet null. Nein
top_p Schweben Die Wahrscheinlichkeit, dass das erste Ergebnis aus den generierten Token verwendet wird Der Standardwert ist 1. Nein
presence_penalty Schweben Wert, der das Verhalten des Modells für wiederholte Ausdrücke steuert. Standard ist "0". Nein
frequency_penalty Schweben Wert, der das Verhalten des Modells zum Generieren seltener Ausdrücke steuert. Standard ist "0". Nein
logit_bias Wörterbuch Logit-Verzerrung für das Sprachmodell. Der Standardwert ist ein leeres Wörterbuch. Nein

Ausgaben

Programmierschnittstelle (API) Rückgabetyp Beschreibung
Fertigstellung Zeichenfolge Text eines vorhergesagten Abschlusses
Plaudern Zeichenfolge Text einer Antwort einer Unterhaltung

Verwenden des LLM-Tools

  1. Richten Sie die Verbindungen mit OpenAI-Ressourcen oder einer Standardbereitstellung ein, und wählen Sie sie aus.
  2. Konfigurieren Sie die API für große Sprachenmodelle und die zugehörigen Parameter.
  3. Bereiten Sie die Eingabeaufforderung mithilfe des Leitfadens vor.