Referenz zur REST-API von Azure OpenAI Service

Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.

Authentication

Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token muss Bearer vorangestellt werden. Beispiel: Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01

Vervollständigungen

Mit dem Vorgang „Vervollständigungen“ generiert das Modell eine oder mehrere vorhergesagte Vervollständigungen auf der Grundlage einer bereitgestellten Äußerung. Der Dienst kann auch die Wahrscheinlichkeiten der alternativen Token an jeder Position zurückgeben.

Erstellen einer Vervollständigung

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/completions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Bereitstellungsname, den Sie bei der Bereitstellung des Modells ausgewählt haben.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
prompt Zeichenfolge oder Array Optional <\|endoftext\|> Der Prompt oder die Prompts für die Vervollständigungen generiert werden sollen, codiert als Zeichenfolge oder als Array von Zeichenfolgen. <\|endoftext\|> ist das Dokumententrennzeichen, welches das Modell während des Trainings sieht. Wenn also keine Äußerung angegeben wird, generiert das Modell so, als würde es am Anfang eines neuen Dokuments stehen.
max_tokens integer Optional 16 Die maximale Anzahl von Token, die in der Vervollständigung generiert werden. Die Tokenanzahl Ihrer Äußerung plus „max_tokens“ darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
temperature number Optional 1 Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte bedeuten, dass das Modell mehr Risiken eingeht. Versuchen Sie es mit 0,9 für kreativere Anwendungen und 0 (argmax sampling) für Anwendungen mit einer klar definierten Antwort. Wir empfehlen im Allgemeinen, dies oder „top_p“ zu ändern, aber nicht beides.
top_p number Optional 1 Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
logit_bias Karte Optional NULL Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Sie können dieses Tokenizertool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) verwenden, um Text in Token-IDs zu konvertieren. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Als Beispiel können Sie {"50256": -100}, um zu verhindern, dass das Token <|endoftext|> generiert wird.
user Zeichenfolge Optional Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
n integer Optional 1 Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden.
stream boolean Optional False Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn diese Option festgelegt ist, werden die Token als reine Serverereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch die Nachricht „data: [DONE]“ beendet wird.
logprobs integer Optional NULL Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von „logprobs“ sowie die ausgewählten Token ein. Wenn z. B. „logprobs“ 10 ist, gibt die API eine Liste der zehn wahrscheinlichsten Token zurück. Die API gibt immer den „logprob“ des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu „logprobs+1“ Elemente enthalten kann. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden.
suffix Zeichenfolge Optional NULL Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.
echo boolean Optional False Gibt die Eingabeaufforderung zusätzlich zum Abschluss zurück. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden.
stop Zeichenfolge oder Array Optional NULL Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. Für GPT-4 Turbo mit Vision werden bis zu zwei Sequenzen unterstützt.
presence_penalty Zahl Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
frequency_penalty number Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
best_of integer Optional 1 Generiert serverseitige „best_of“-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der geringsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden. Wenn Sie diese Funktion zusammen mit „n“ verwenden, steuert „best_of“ die Anzahl der möglichen Vervollständigungen und „n“ gibt an, wie viele zurückgegeben werden sollen – „best_of“ muss größer als „n“ sein. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01\
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d "{
  \"prompt\": \"Once upon a time\",
  \"max_tokens\": 5
}"

Beispielantwort

{
    "id": "cmpl-4kGh7iXtjW4lc9eGhff6Hp8C7btdQ",
    "object": "text_completion",
    "created": 1646932609,
    "model": "ada",
    "choices": [
        {
            "text": ", a dark line crossed",
            "index": 0,
            "logprobs": null,
            "finish_reason": "length"
        }
    ]
}

In der Beispielantwort ist finish_reason dasselbe wie stop. Wenn finish_reason gleich content_filter ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.

Einbettungen

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine Learning-Modellen und anderen Algorithmen leicht verarbeitet werden kann.

Hinweis

OpenAI ermöglicht derzeit eine größere Anzahl von Arrayeingaben mit text-embedding-ada-002. Azure OpenAI unterstützt derzeit Eingabearrays bis zu 16 für text-embedding-ada-002 (Version 2). In diesem Modell erfordern beide, dass das Maximum eingegebener Token pro API-Anforderung unter 8191 bleibt.

Erstellen einer Einbettung

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/embeddings?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
input Zeichenfolge oder Array Ja Nicht zutreffend Eingabetext, für den Sie Einbettungen abrufen können, codiert als Array oder als Zeichenfolge. Die Anzahl der Eingabetoken hängt vom verwendeten Modell ab. Nur text-embedding-ada-002 (Version 2) unterstützt Arrayeingaben.
user Zeichenfolge Nein Null Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt. Dies wird Azure OpenAI helfen, Missbrauch zu überwachen und zu erkennen. Geben Sie keine PII-Bezeichner weiter, sondern verwenden Sie pseudoanonymisierte Werte wie GUIDs
encoding_format Zeichenfolge No float Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt.

[Hinzugefügt in 2024-03-01-preview].
dimensions integer No Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt.

[Hinzugefügt in 2024-03-01-preview]

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2024-02-01 \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d "{\"input\": \"The food was delicious and the waiter...\"}"

Beispielantwort

{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "embedding": [
        0.018990106880664825,
        -0.0073809814639389515,
        .... (1024 floats total for ada)
        0.021276434883475304,
      ],
      "index": 0
    }
  ],
  "model": "text-similarity-babbage:001"
}

Chatvervollständigungen

Sie können Vervollständigungen für Chatnachrichten mit dem GPT-35-Turbo- und GPT-4-Modell erstellen.

Erstellen von Chatvervollständigungen

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/chat/completions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dies entspricht dem Format „JJJJ-MM-TT“ oder „JJJJ-MM-TT-preview“.

Unterstützte Versionen

Anforderungstext

Der Anforderungstext besteht aus einer Reihe von Nachrichten. Das Modell generiert eine Antwort auf die letzte Nachricht, wobei frühere Nachrichten als Kontext verwendet werden.

Parameter type Erforderlich? Standard BESCHREIBUNG
messages array Ja N/V Die Reihe von Nachrichten, die dieser Chatabschlussanfrage zugeordnet sind. Sie sollte vorherige Nachrichten in die Unterhaltung aufnehmen. Jede Meldung verfügt über role und content.
role Zeichenfolge Ja N/V Gibt an, wer die aktuelle Nachricht angibt. Kann system,user,assistant,tool oder function sein.
content Zeichenfolge oder Array Ja N/V Der Inhalt der Nachricht. Es muss eine Zeichenfolge sein, es sei denn, es handelt sich um ein Vision-Szenario. Wenn es sich um einen Teil der user Nachricht handelt, der das GPT-4 Turbo with Vision-Modell mit der neuesten API-content Version verwendet, muss es sich um ein Array von Strukturen handeln, wobei jedes Element entweder Text oder ein Bild darstellt:
  • text: Eingabetext wird als Struktur mit den folgenden Eigenschaften dargestellt:
    • type = "text"
    • text = der Eingabetext
  • images: Ein Eingabebild wird als Struktur mit den folgenden Eigenschaften dargestellt:
    • type = "image_url"
    • image_url = eine Struktur mit den folgenden Eigenschaften:
      • url = die Bild-URL
      • (optional) detail = high, low oder auto
contentPart Objekt Nein Teil der mehr modalen Nachricht eines Benutzers. Es kann sich um Texttyp oder Bildtyp sein. Bei Text handelt es sich um eine Textzeichenfolge. Wenn Bild, wird es ein contentPartImage-Objekt sein.
contentPartImage Objekt Nein Stellt ein vom Benutzer hochgeladenes Bild dar. Es verfügt über eine url-Eigenschaft, die entweder eine URL des Bilds oder die base64-codierten Bilddaten sind. Es hat auch eine detail-Eigenschaft, die kann auto, lowoder high sein.
enhancements Objekt Nein Stellt die für den Chat angeforderten Vision-Erweiterungsfeatures dar. Es verfügt über grounding- und ocr-Eigenschaften, und jede verfügt über eine boolesche enabled-Eigenschaft. Verwenden Sie diese, um den OCR-Dienst und/oder den Objekterkennungs-/Groundingdienst anzufordern [Dieser Vorschauparameter ist in der allgemein verfügbaren 2024-02-01-API nicht enthalten und ist nicht mehr in Vorschau-APIs nach 2024-03-01-preview enthalten.]
dataSources Objekt Nein Stellt zusätzliche Ressourcendaten dar. Computer Vision-Ressourcendaten sind für die Verbesserung von Vision erforderlich. Es hat eine type-Eigenschaft, die "AzureComputerVision" sein sollte, und eine parameters-Eigenschaft, die eine endpoint- und key-Eigenschaft hat. Diese Zeichenfolgen sollten auf die Endpunkt-URL und den Zugriffsschlüssel Ihrer Computer Vision-Ressource festgelegt werden.

Beispielanforderung

Nur-Text-Chat

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-02-01 \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Azure AI services support this too?"}]}'

Mit Vision chatten

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2023-12-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{ "type": "image_url", "image_url": { "url": "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png", "detail": "high" } }]}]}'

Erweiterter Chat mit Vision

  • Nicht unterstützt mit dem allgemein verfügbaren GPT-4 Turbo-Modellgpt-4Version:turbo-2024-04-09
  • Nicht unterstützt mit 2024-02-01 und2024-04-01-preview und neueren API-Versionen.
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{"enhancements":{"ocr":{"enabled":true},"grounding":{"enabled":true}},"dataSources":[{"type":"AzureComputerVision","parameters":{"endpoint":" <Computer Vision Resource Endpoint> ","key":"<Computer Vision Resource Key>"}}],"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{"type":"image_url","image_url":"https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"}]}]}'

Beispielantwort

{
    "id": "chatcmpl-6v7mkQj980V1yBec6ETrKPRqFjNw9",
    "object": "chat.completion",
    "created": 1679072642,
    "model": "gpt-35-turbo",
    "usage":
    {
        "prompt_tokens": 58,
        "completion_tokens": 68,
        "total_tokens": 126
    },
    "choices":
    [
        {
            "message":
            {
                "role": "assistant",
                "content": "Yes, other Azure AI services also support customer managed keys.
                    Azure AI services offer multiple options for customers to manage keys, such as
                    using Azure Key Vault, customer-managed keys in Azure Key Vault or
                    customer-managed keys through Azure Storage service. This helps customers ensure
                    that their data is secure and access to their services is controlled."
            },
            "finish_reason": "stop",
            "index": 0
        }
    ]
}

Die Ausgabeformatierung wurde zur erleichterten Lesbarkeit angepasst, die tatsächliche Ausgabe ist ein einzelner Textblock ohne Zeilenumbrüche.

In der Beispielantwort ist finish_reason dasselbe wie stop. Wenn finish_reason gleich content_filter ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.

Wichtig

Die Parameter functions und function_call wurden mit der Veröffentlichung der Version 2023-12-01-preview der API als veraltet markiert. Der Ersatz für functions ist der Parameter tools. Der Ersatz für function_call ist der Parameter tool_choice. Parallele Funktionsaufrufe, die als Teil von 2023-12-01-preview eingeführt wurden, werden nur mit gpt-35-turbo (1106) und gpt-4 (1106-Vorschau) unterstützt, auch als GPT-4 Turbo Preview bezeichnet.

Parameter type Erforderlich? Standard BESCHREIBUNG
messages array Erforderlich Die Sammlung von Kontextnachrichten, die dieser Chatabschlussanforderung zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen zum Verhalten des Assistenten enthält, gefolgt von abwechselnden Nachrichten zwischen den Rollen „Benutzer“ und „Assistent“.
temperature Zahl Optional 1 Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
n integer Optional 1 Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen.
stream boolean Optional false Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird.
stop Zeichenfolge oder Array Optional NULL Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
max_tokens integer Optional inf Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken).
presence_penalty number Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
frequency_penalty number Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
logit_bias Objekt (object) Optional NULL Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
user Zeichenfolge Optional Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann.
function_call Optional [Deprecated in 2023-12-01-preview replacement parameter is tools_choice]Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. auto bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich.
functions FunctionDefinition[] Optional [Deprecated in 2023-12-01-preview replacement paremeter is tools] Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich.
tools Zeichenfolge (Der Typ des Tools. Nur function wird unterstützt.) Optional Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-12-01-preview erforderlich.
tool_choice Zeichenfolge oder Objekt Optional „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. „None“ bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type: "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. Für diesen Parameter ist die API-Version 2023-12-01-preview oder höher erforderlich.

ChatMessage

Eine einzelne, rollenbezogene Nachricht innerhalb einer Chatvervollständigungsinteraktion.

Name Typ Beschreibung
Inhalt Zeichenfolge Der Text, der dieser Nachrichtennutzlast zugeordnet ist.
function_call FunctionCall Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden.
name Zeichenfolge Der Name (name) des Autors dieser Nachricht. Der Name (name) ist erforderlich, wenn die Rolle „function“ lautet, und sollte der Name der Funktion sein, deren Antwort sich im Inhalt (content) befindet. Kann a-z, A-Z, 0-9 und Unterstriche mit einer maximalen Länge von 64 Zeichen enthalten.
role ChatRole Die Rolle, die dieser Nachrichtennutzlast zugeordnet ist.

ChatRole

Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chatvervollständigungsinteraktion.

Name Typ Beschreibung
assistant Zeichenfolge Die Rolle, die Antworten auf vom System angewiesene, vom Benutzer angeforderte Eingaben bereitstellt.
Funktion Zeichenfolge Die Rolle, die Funktionsergebnisse für Chatvervollständigungen bereitstellt.
system Zeichenfolge Die Rolle, die das Verhalten des Assistenten anweist oder festlegt.
user Zeichenfolge Die Rolle, die Eingaben für Chatvervollständigungen bereitstellt.

Funktion

Dies wird mit dem Parameter tools verwendet, der in der API-Version 2023-12-01-preview hinzugefügt wurde.

Name Typ BESCHREIBUNG
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a-z, A-Z, 0-9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.
Parameter Objekt Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz.

FunctionCall-Deprecated

Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. Hierfür ist die API-Version 2023-07-01-preview erforderlich.

Name Typ Beschreibung
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Modell generiert nicht immer gültige JSON-Werte und erstellt möglicherweise Parameter, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.
name Zeichenfolge Der Name der aufzurufenden Funktion.

FunctionDefinition-Deprecated

Die Definition einer vom Aufrufer angegebenen Funktion, die Chatvervollständigungen als Reaktion auf übereinstimmende Benutzereingaben aufrufen können. Hierfür ist die API-Version 2023-07-01-preview erforderlich.

Name Typ BESCHREIBUNG
Beschreibung string Eine Beschreibung der Funktion. Das Modell verwendet diese Beschreibung, wenn die Funktion ausgewählt und die Parameter interpretiert werden.
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll.
Parameter Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt.

Erweiterungen für Vervollständigungen

Die Dokumentation für diesen Abschnitt wurde entfernt. Informationen finden Sie stattdessen in der Referenzdokumentation zu Azure OpenAI On Your Data.

Bildgenerierung

Anfordern eines generierten Bildes (DALL-E 3)

Generieren und Abrufen eines Batch von Bildern aus einem Textuntertitel.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version={api-version} 

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name Ihrer DALL-E 3-Modellbereitstellung wie MyDalle3. Sie müssen zuerst ein DALL-E 3-Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
prompt Zeichenfolge Erforderlich Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen.
n integer Optional 1 Die Anzahl der zu generierenden Bilder. Für DALL-E 3 wird nur n=1 unterstützt.
size Zeichenfolge Optional 1024x1024 Die Größe der generierten Bilder. Muss 1792x1024, 1024x1024 oder 1024x1792 sein.
quality Zeichenfolge Optional standard Die Qualität der generierten Bilder. Muss hd oder standard sein.
response_format Zeichenfolge Optional url Das Format, in dem die generierten Bilder zurückgegeben werden, muss url (eine URL, die auf das Bild verweist) oder b64_json (der Base 64-Byte-Code im JSON-Format) sein.
style Zeichenfolge Optional vivid Die Größe der generierten Bilder. Muss natural oder vivid sein (für hyperrealistische / dramatische Bilder).
user Zeichenfolge Optional Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.

Beispielanforderung

curl -X POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version=2023-12-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{
    "prompt": "An avocado chair",
    "size": "1024x1024",
    "n": 1,
    "quality": "hd", 
    "style": "vivid"
  }'

Beispielantwort

Der Vorgang gibt einen Statuscode 202 und ein GenerateImagesResponse-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.

{ 
    "created": 1698116662, 
    "data": [ 
        { 
            "url": "url to the image", 
            "revised_prompt": "the actual prompt that was used" 
        }, 
        { 
            "url": "url to the image" 
        },
        ...
    ]
} 

Anfordern eines generierten Bildes (DALL-E 2 Vorschau)

Generieren Sie einen Batch von Bildern aus einem Textuntertitel.

POST https://{your-resource-name}.openai.azure.com/openai/images/generations:submit?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
prompt Zeichenfolge Erforderlich Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen.
n integer Optional 1 Die Anzahl der zu generierenden Bilder. Der Wert muss zwischen 1 und 5 liegen.
size Zeichenfolge Optional 1\.024 × 1.024 Die Größe der generierten Bilder. Muss 256x256, 512x512 oder 1024x1024 sein.

Beispielanforderung

curl -X POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/images/generations:submit?api-version=2023-06-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{
"prompt": "An avocado chair",
"size": "512x512",
"n": 3
}'

Beispielantwort

Der Vorgang gibt einen Statuscode 202 und ein GenerateImagesResponse-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.

{
  "id": "f508bcf2-e651-4b4b-85a7-58ad77981ffa",
  "status": "notRunning"
}

Abrufen eines generierten Bildergebnisses (DALL-E 2 Vorschau)

Verwenden Sie diese API, um die Ergebnisse eines Bildgenerierungsvorgangs abzurufen. Die Bildgenerierung ist derzeit nur mit api-version=2023-06-01-previewverfügbar.

GET https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
operation-id Zeichenfolge Erforderlich Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert.

Unterstützte Versionen

Beispielanforderung

curl -X GET "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"

Beispielantwort

Nach erfolgreicher Ausführung gibt der Vorgang einen Statuscode 200 und ein OperationResponse-JSON-Objekt zurück. Das Feld status kann "notRunning" (Aufgabe befindet sich in der Warteschlange, wurde aber noch nicht gestartet), "running", "succeeded", "canceled" (Aufgabe hat ein Timeout), "failed" oder "deleted" sein. Ein succeeded-Status gibt an, dass das generierte Bild unter der angegebenen URL zum Download verfügbar ist. Wenn mehrere Bilder generiert wurden, werden alle ihre URLs im Feld result.data zurückgegeben.

{
  "created": 1685064331,
  "expires": 1685150737,
  "id": "4b755937-3173-4b49-bf3f-da6702a3971a",
  "result": {
    "data": [
      {
        "url": "<URL_TO_IMAGE>"
      },
      {
        "url": "<URL_TO_NEXT_IMAGE>"
      },
      ...
    ]
  },
  "status": "succeeded"
}

Löschen eines generierten Bildes vom Server (DALL-E 2 Vorschau)

Sie können die von der Anforderung zurückgegebene Vorgangs-ID verwenden, um das entsprechende Bild vom Azure-Server zu löschen. Generierte Bilder werden standardmäßig nach 24 Stunden automatisch gelöscht, aber Sie können den Löschvorgang bei Bedarf früher auslösen.

DELETE https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
operation-id Zeichenfolge Erforderlich Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert.

Unterstützte Versionen

Beispielanforderung

curl -X DELETE "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"

Antwort

Der Vorgang gibt bei erfolgreicher Ausführung einen Statuscode 204 zurück. Diese API ist nur erfolgreich, wenn sich der Vorgang im Endzustand befindet (nicht running).

Spracherkennung

Sie können ein Whisper-Modell in Azure OpenAI Service für die Spracherkennungstranskription oder Sprachübersetzung verwenden. Weitere Informationen zur Verwendung eines Whisper-Modells finden Sie im Schnellstart und in der Übersicht über das Whisper-Modell.

Anfordern einer Sprache-in-Text-Transkription

Transkribiert eine Audiodatei.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/transcriptions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard Beschreibung
file datei Ja N/V Das zu transkribierende Audiodateiobjekt (kein Dateiname) in einem der folgenden Formate: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav oder webm.

Die Dateigrößenbeschränkung für das Whisper-Modell in Azure OpenAI Service beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke. Alternativ können Sie die Batchtranskriptions-API von Azure KI Speech verwenden.

Beispiele für Audiodateien finden Sie im Azure KI Speech SDK-Repository auf GitHub.
language Zeichenfolge Nein Null Die Sprache der Eingabeaudiodaten, z. B. fr. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz.

Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.
prompt Zeichenfolge Nein Null Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen.

Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation.
response_format Zeichenfolge Nein json Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt.

Der Standardwert ist json.
temperature Zahl Nein 0 Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1.

Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden.

Der Standardwert ist 0.
timestamp_granularities array Optional Segment Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Wartezeit für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Wartezeiten. [Hinzugefügt in 2024-04-01-Vorschau]

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/transcriptions?api-version=2023-09-01-preview \
  -H "Content-Type: multipart/form-data" \
  -H "api-key: $YOUR_API_KEY" \
  -F file="@./YOUR_AUDIO_FILE_NAME.wav" \
  -F "language=en" \
  -F "prompt=The transcript contains zoology terms and geographical locations." \
  -F "temperature=0" \
  -F "response_format=srt"

Beispielantwort

1
00:00:00,960 --> 00:00:07,680
The ocelot, Lepardus paradalis, is a small wild cat native to the southwestern United States,

2
00:00:07,680 --> 00:00:13,520
Mexico, and Central and South America. This medium-sized cat is characterized by

3
00:00:13,520 --> 00:00:18,960
solid black spots and streaks on its coat, round ears, and white neck and undersides.

4
00:00:19,760 --> 00:00:27,840
It weighs between 8 and 15.5 kilograms, 18 and 34 pounds, and reaches 40 to 50 centimeters

5
00:00:27,840 --> 00:00:34,560
16 to 20 inches at the shoulders. It was first described by Carl Linnaeus in 1758.

6
00:00:35,360 --> 00:00:42,880
Two subspecies are recognized, L. p. paradalis and L. p. mitis. Typically active during twilight

7
00:00:42,880 --> 00:00:48,480
and at night, the ocelot tends to be solitary and territorial. It is efficient at climbing,

8
00:00:48,480 --> 00:00:54,480
leaping, and swimming. It preys on small terrestrial mammals such as armadillo, opossum,

9
00:00:54,480 --> 00:00:56,480
and lagomorphs.

Anfordern einer Sprache-in-Text-Übersetzung

Übersetzt eine Audiodatei aus einer anderen Sprache ins Englische. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/translations?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard Beschreibung
file datei Ja Nicht zutreffend Das zu transkribierende Audiodateiobjekt (nicht der Dateiname) in einem der folgenden Formate: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav oder webm.

Die Dateigrößenbegrenzung für das Whisper-Modell von Azure OpenAI beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke.

Beispiele für Audiodateien können Sie aus dem Azure KI Speech SDK-Repository auf GitHub herunterladen.
prompt Zeichenfolge Nein Null Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen.

Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation.
response_format Zeichenfolge Nein json Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt.

Der Standardwert ist json.
temperature Zahl Nein 0 Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1.

Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden.

Der Standardwert ist 0.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/translations?api-version=2023-09-01-preview \
  -H "Content-Type: multipart/form-data" \
  -H "api-key: $YOUR_API_KEY" \
  -F file="@./YOUR_AUDIO_FILE_NAME.wav" \
  -F "temperature=0" \
  -F "response_format=json"

Beispielantwort

{
  "text": "Hello, my name is Wolfgang and I come from Germany. Where are you heading today?"
}

Sprachsynthese

Synthetisieren Sie Text in Sprache.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/speech?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Sprachsynthese-Modellimplementierung, z. B. MyTextToSpeechDeployment. Sie müssen zuerst ein Sprachsynthesemodell (z. B. tts-1 oder tts-1-hd) bereitstellen, bevor Sie Anrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
model Zeichenfolge Ja N/V Eines der verfügbaren TTS-Modelle: tts-1 oder tts-1-hd
input Zeichenfolge Ja N/V Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Geben Sie den Eingabetext in der gewünschten Sprache an.1
voice Zeichenfolge Ja N/V Die Stimme, die beim Generieren des Audiosignals verwendet werden soll. Unterstützte Stimmen sind alloy, echo, fable, onyx, nova und shimmer. Hörproben der Stimmen sind im Leitfaden für die OpenAI-Sprachsynthese verfügbar.

1 Die Sprachsynthesemodelle unterstützten in der Regel die gleichen Sprachen wie das Whisper-Modell. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/speech?api-version=2024-02-15-preview \
 -H "api-key: $YOUR_API_KEY" \
 -H "Content-Type: application/json" \
 -d '{
    "model": "tts-hd",
    "input": "I'm excited to try text to speech.",
    "voice": "alloy"
}' --output speech.mp3

Beispielantwort

Die Sprache wird als Audiodatei aus der vorherigen Anforderung zurückgegeben.

Verwaltungs-APIs

Azure OpenAI wird als Teil von Azure KI Services bereitgestellt. Alle Azure KI Services-Instanzen stützen sich auf dieselben Verwaltungs-APIs für die Erstellung, Aktualisierung und Löschung von Vorgängen. Die Verwaltungs-APIs werden auch für die Bereitstellung von Modellen innerhalb einer Azure OpenAI-Ressource verwendet.

Referenzdokumentation für Verwaltungs-APIs

Nächste Schritte

Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.