Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Azure OpenAI GPT-4 Turbo mit Vision-Tool ermöglicht Es Ihnen, Ihre AzureOpenAI GPT-4 Turbo mit Vision-Modellbereitstellung zu nutzen, um Bilder zu analysieren und Textantworten für Fragen zu ihnen bereitzustellen.
Wichtig
Azure OpenAI GPT-4 Turbo mit Vision-Tool befindet sich derzeit in der öffentlichen Vorschau. Diese Vorschau wird ohne Vereinbarung zum Servicelevel bereitgestellt und nicht für Produktionsworkloads empfohlen. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.
Voraussetzungen
Erstellen von AzureOpenAI-Ressourcen
Erstellen Sie Azure OpenAI-Ressourcen mit Anleitungen.
Erstellen eines GPT-4 Turbo mit Vision-Bereitstellung
Wechseln Sie zum Azure AI Foundry-Portal , und melden Sie sich mit den Anmeldeinformationen an, die Ihrer Azure OpenAI-Ressource zugeordnet sind. Wählen Sie während oder nach dem Anmeldeworkflow das passende Verzeichnis, Azure-Abonnement und die Azure OpenAI-Ressource aus.
Wählen Sie unter "Verwaltung" die Option "Bereitstellungen" und "GpT-4 Turbo mit Vision-Bereitstellung erstellen" aus,
gpt-4
indem Sie den Modellnamen und die Modellversionvision-preview
auswählen.
Verbindung
Richten Sie Verbindungen zu bereitgestellten Ressourcen im Prompt Flow ein.
type | Name | API-SCHLÜSSEL | API-Typ | API-Version |
---|---|---|---|---|
AzureOpenAI | Erforderlich | Erforderlich | Erforderlich | Erforderlich |
Eingaben
Name | Typ | Beschreibung | Erforderlich |
---|---|---|---|
Verbindung | AzureOpenAI | die AzureOpenAI-Verbindung, die im Tool verwendet werden soll | Ja |
deployment_name | Zeichenfolge | Das zu verwendende Sprachmodell | Ja |
prompt | Zeichenfolge | Der Textprompt, den das Sprachmodell verwendet, um eine Antwort zu generieren Die Jinja-Vorlage zum Verfassen von Prompts im Tool folgt einer ähnlichen Struktur wie die Chat-API im LLM-Tool. Um eine Bildeingabe in Ihrem Prompt darzustellen, können Sie die Syntax  verwenden. Bildeingaben können in user -, system - und assistant -Nachrichten übergeben werden. |
Ja |
max_tokens | integer | Die maximale Anzahl von Token, die in der Antwort generiert werden. Der Standardwert ist 512. | Nein |
Temperatur | float | Die Zufälligkeit des generierten Texts. Der Standardwert ist 1. | Nein |
stop | list | Die Stoppsequenz für den generierten Text. Der Standardwert lautet null. | Nein |
top_p | float | Die Wahrscheinlichkeit, dass das erste Ergebnis aus den generierten Token verwendet wird. Der Standardwert ist 1. | Nein |
presence_penalty | float | Wert, der das Verhalten des Modells in Bezug auf wiederholte Ausdrücke steuert. Standard ist "0". | Nein |
frequency_penalty | float | Wert, der das Verhalten des Modells in Bezug auf das Generieren seltener Ausdrücke steuert. Standard ist "0". | Nein |
Ausgaben
Rückgabetyp | BESCHREIBUNG |
---|---|
string | Der Text einer Antwort der Unterhaltung |
Nächster Schritt
Erfahren Sie mehr darüber, wie Bilder im Prompt Flow verarbeitet werden.