Freigeben über


Azure OpenAI GPT-4 Turbo mit Vision-Tool (Vorschau)

Azure OpenAI GPT-4 Turbo mit Vision-Tool ermöglicht Es Ihnen, Ihre AzureOpenAI GPT-4 Turbo mit Vision-Modellbereitstellung zu nutzen, um Bilder zu analysieren und Textantworten für Fragen zu ihnen bereitzustellen.

Wichtig

Azure OpenAI GPT-4 Turbo mit Vision-Tool befindet sich derzeit in der öffentlichen Vorschau. Diese Vorschau wird ohne Vereinbarung zum Servicelevel bereitgestellt und nicht für Produktionsworkloads empfohlen. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.

Voraussetzungen

  • Erstellen von AzureOpenAI-Ressourcen

    Erstellen Sie Azure OpenAI-Ressourcen mit Anleitungen.

  • Erstellen eines GPT-4 Turbo mit Vision-Bereitstellung

    Wechseln Sie zum Azure AI Foundry-Portal , und melden Sie sich mit den Anmeldeinformationen an, die Ihrer Azure OpenAI-Ressource zugeordnet sind. Wählen Sie während oder nach dem Anmeldeworkflow das passende Verzeichnis, Azure-Abonnement und die Azure OpenAI-Ressource aus.

    Wählen Sie unter "Verwaltung" die Option "Bereitstellungen" und "GpT-4 Turbo mit Vision-Bereitstellung erstellen" aus, gpt-4 indem Sie den Modellnamen und die Modellversion vision-previewauswählen.

Verbindung

Richten Sie Verbindungen zu bereitgestellten Ressourcen im Prompt Flow ein.

type Name API-SCHLÜSSEL API-Typ API-Version
AzureOpenAI Erforderlich Erforderlich Erforderlich Erforderlich

Eingaben

Name Typ Beschreibung Erforderlich
Verbindung AzureOpenAI die AzureOpenAI-Verbindung, die im Tool verwendet werden soll Ja
deployment_name Zeichenfolge Das zu verwendende Sprachmodell Ja
prompt Zeichenfolge Der Textprompt, den das Sprachmodell verwendet, um eine Antwort zu generieren Die Jinja-Vorlage zum Verfassen von Prompts im Tool folgt einer ähnlichen Struktur wie die Chat-API im LLM-Tool. Um eine Bildeingabe in Ihrem Prompt darzustellen, können Sie die Syntax ![image]({{INPUT NAME}}) verwenden. Bildeingaben können in user-, system- und assistant-Nachrichten übergeben werden. Ja
max_tokens integer Die maximale Anzahl von Token, die in der Antwort generiert werden. Der Standardwert ist 512. Nein
Temperatur float Die Zufälligkeit des generierten Texts. Der Standardwert ist 1. Nein
stop list Die Stoppsequenz für den generierten Text. Der Standardwert lautet null. Nein
top_p float Die Wahrscheinlichkeit, dass das erste Ergebnis aus den generierten Token verwendet wird. Der Standardwert ist 1. Nein
presence_penalty float Wert, der das Verhalten des Modells in Bezug auf wiederholte Ausdrücke steuert. Standard ist "0". Nein
frequency_penalty float Wert, der das Verhalten des Modells in Bezug auf das Generieren seltener Ausdrücke steuert. Standard ist "0". Nein

Ausgaben

Rückgabetyp BESCHREIBUNG
string Der Text einer Antwort der Unterhaltung

Nächster Schritt

Erfahren Sie mehr darüber, wie Bilder im Prompt Flow verarbeitet werden.