Referenz zur REST-API von Azure OpenAI Service
Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.
Authentication
Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.
API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den
api-key
-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als
Authorization
-Header in eine Anforderung eingefügt. Dem bereitgestellten Token mussBearer
vorangestellt werden. Beispiel:Bearer YOUR_AUTH_TOKEN
. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version
ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01
Vervollständigungen
Mit dem Vorgang „Vervollständigungen“ generiert das Modell eine oder mehrere vorhergesagte Vervollständigungen auf der Grundlage einer bereitgestellten Äußerung. Der Dienst kann auch die Wahrscheinlichkeiten der alternativen Token an jeder Position zurückgeben.
Erstellen einer Vervollständigung
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/completions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Bereitstellungsname, den Sie bei der Bereitstellung des Modells ausgewählt haben. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2022-12-01
Swagger-Spezifikation2023-03-15-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-05-15
Swagger-Spezifikation2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-04-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
prompt |
Zeichenfolge oder Array | Optional | <\|endoftext\|> |
Der Prompt oder die Prompts für die Vervollständigungen generiert werden sollen, codiert als Zeichenfolge oder als Array von Zeichenfolgen. <\|endoftext\|> ist das Dokumententrennzeichen, welches das Modell während des Trainings sieht. Wenn also keine Äußerung angegeben wird, generiert das Modell so, als würde es am Anfang eines neuen Dokuments stehen. |
max_tokens |
integer | Optional | 16 | Die maximale Anzahl von Token, die in der Vervollständigung generiert werden. Die Tokenanzahl Ihrer Äußerung plus „max_tokens“ darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen). |
temperature |
number | Optional | 1 | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte bedeuten, dass das Modell mehr Risiken eingeht. Versuchen Sie es mit 0,9 für kreativere Anwendungen und 0 (argmax sampling ) für Anwendungen mit einer klar definierten Antwort. Wir empfehlen im Allgemeinen, dies oder „top_p“ zu ändern, aber nicht beides. |
top_p |
number | Optional | 1 | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
logit_bias |
Karte | Optional | NULL | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Sie können dieses Tokenizertool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) verwenden, um Text in Token-IDs zu konvertieren. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Als Beispiel können Sie {"50256": -100}, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
user |
Zeichenfolge | Optional | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | |
n |
integer | Optional | 1 | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. |
stream |
boolean | Optional | False | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn diese Option festgelegt ist, werden die Token als reine Serverereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch die Nachricht „data: [DONE]“ beendet wird. |
logprobs |
integer | Optional | NULL | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von „logprobs“ sowie die ausgewählten Token ein. Wenn z. B. „logprobs“ 10 ist, gibt die API eine Liste der zehn wahrscheinlichsten Token zurück. Die API gibt immer den „logprob“ des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu „logprobs+1“ Elemente enthalten kann. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden. |
suffix |
Zeichenfolge | Optional | NULL | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. |
echo |
boolean | Optional | False | Gibt die Eingabeaufforderung zusätzlich zum Abschluss zurück. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden. |
stop |
Zeichenfolge oder Array | Optional | NULL | Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. Für GPT-4 Turbo mit Vision werden bis zu zwei Sequenzen unterstützt. |
presence_penalty |
Zahl | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
frequency_penalty |
number | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
best_of |
integer | Optional | 1 | Generiert serverseitige „best_of“-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der geringsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden. Wenn Sie diese Funktion zusammen mit „n“ verwenden, steuert „best_of“ die Anzahl der möglichen Vervollständigungen und „n“ gibt an, wie viele zurückgegeben werden sollen – „best_of“ muss größer als „n“ sein. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden. |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01\
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d "{
\"prompt\": \"Once upon a time\",
\"max_tokens\": 5
}"
Beispielantwort
{
"id": "cmpl-4kGh7iXtjW4lc9eGhff6Hp8C7btdQ",
"object": "text_completion",
"created": 1646932609,
"model": "ada",
"choices": [
{
"text": ", a dark line crossed",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
]
}
In der Beispielantwort ist finish_reason
dasselbe wie stop
. Wenn finish_reason
gleich content_filter
ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.
Einbettungen
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine Learning-Modellen und anderen Algorithmen leicht verarbeitet werden kann.
Hinweis
OpenAI ermöglicht derzeit eine größere Anzahl von Arrayeingaben mit text-embedding-ada-002
. Azure OpenAI unterstützt derzeit Eingabearrays bis zu 16 für text-embedding-ada-002 (Version 2)
. In diesem Modell erfordern beide, dass das Maximum eingegebener Token pro API-Anforderung unter 8191 bleibt.
Erstellen einer Einbettung
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/embeddings?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-03-15-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-05-15
Swagger-Spezifikation2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-04-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
input |
Zeichenfolge oder Array | Ja | Nicht zutreffend | Eingabetext, für den Sie Einbettungen abrufen können, codiert als Array oder als Zeichenfolge. Die Anzahl der Eingabetoken hängt vom verwendeten Modell ab. Nur text-embedding-ada-002 (Version 2) unterstützt Arrayeingaben. |
user |
Zeichenfolge | Nein | Null | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt. Dies wird Azure OpenAI helfen, Missbrauch zu überwachen und zu erkennen. Geben Sie keine PII-Bezeichner weiter, sondern verwenden Sie pseudoanonymisierte Werte wie GUIDs |
encoding_format |
Zeichenfolge | No | float |
Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. [Hinzugefügt in 2024-03-01-preview ]. |
dimensions |
integer | No | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. [Hinzugefügt in 2024-03-01-preview ] |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2024-02-01 \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d "{\"input\": \"The food was delicious and the waiter...\"}"
Beispielantwort
{
"object": "list",
"data": [
{
"object": "embedding",
"embedding": [
0.018990106880664825,
-0.0073809814639389515,
.... (1024 floats total for ada)
0.021276434883475304,
],
"index": 0
}
],
"model": "text-similarity-babbage:001"
}
Chatvervollständigungen
Sie können Vervollständigungen für Chatnachrichten mit dem GPT-35-Turbo- und GPT-4-Modell erstellen.
Erstellen von Chatvervollständigungen
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/chat/completions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dies entspricht dem Format „JJJJ-MM-TT“ oder „JJJJ-MM-TT-preview“. |
Unterstützte Versionen
2023-03-15-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-05-15
Swagger-Spezifikation2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. April 2024) (Diese oder eine höhere Version ist für Vision-Szenarien erforderlich) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-04-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Der Anforderungstext besteht aus einer Reihe von Nachrichten. Das Modell generiert eine Antwort auf die letzte Nachricht, wobei frühere Nachrichten als Kontext verwendet werden.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
messages |
array | Ja | N/V | Die Reihe von Nachrichten, die dieser Chatabschlussanfrage zugeordnet sind. Sie sollte vorherige Nachrichten in die Unterhaltung aufnehmen. Jede Meldung verfügt über role und content . |
role |
Zeichenfolge | Ja | N/V | Gibt an, wer die aktuelle Nachricht angibt. Kann system ,user ,assistant ,tool oder function sein. |
content |
Zeichenfolge oder Array | Ja | N/V | Der Inhalt der Nachricht. Es muss eine Zeichenfolge sein, es sei denn, es handelt sich um ein Vision-Szenario. Wenn es sich um einen Teil der user Nachricht handelt, der das GPT-4 Turbo with Vision-Modell mit der neuesten API-content Version verwendet, muss es sich um ein Array von Strukturen handeln, wobei jedes Element entweder Text oder ein Bild darstellt:
|
contentPart |
Objekt | Nein | – | Teil der mehr modalen Nachricht eines Benutzers. Es kann sich um Texttyp oder Bildtyp sein. Bei Text handelt es sich um eine Textzeichenfolge. Wenn Bild, wird es ein contentPartImage -Objekt sein. |
contentPartImage |
Objekt | Nein | – | Stellt ein vom Benutzer hochgeladenes Bild dar. Es verfügt über eine url -Eigenschaft, die entweder eine URL des Bilds oder die base64-codierten Bilddaten sind. Es hat auch eine detail -Eigenschaft, die kann auto , low oder high sein. |
enhancements |
Objekt | Nein | – | Stellt die für den Chat angeforderten Vision-Erweiterungsfeatures dar. Es verfügt über grounding - und ocr -Eigenschaften, und jede verfügt über eine boolesche enabled -Eigenschaft. Verwenden Sie diese, um den OCR-Dienst und/oder den Objekterkennungs-/Groundingdienst anzufordern [Dieser Vorschauparameter ist in der allgemein verfügbaren 2024-02-01 -API nicht enthalten und ist nicht mehr in Vorschau-APIs nach 2024-03-01-preview enthalten.] |
dataSources |
Objekt | Nein | – | Stellt zusätzliche Ressourcendaten dar. Computer Vision-Ressourcendaten sind für die Verbesserung von Vision erforderlich. Es hat eine type -Eigenschaft, die "AzureComputerVision" sein sollte, und eine parameters -Eigenschaft, die eine endpoint - und key -Eigenschaft hat. Diese Zeichenfolgen sollten auf die Endpunkt-URL und den Zugriffsschlüssel Ihrer Computer Vision-Ressource festgelegt werden. |
Beispielanforderung
Nur-Text-Chat
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-02-01 \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Azure AI services support this too?"}]}'
Mit Vision chatten
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{ "type": "image_url", "image_url": { "url": "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png", "detail": "high" } }]}]}'
Erweiterter Chat mit Vision
- Nicht unterstützt mit dem allgemein verfügbaren GPT-4 Turbo-Modell
gpt-4
Version:turbo-2024-04-09
- Nicht unterstützt mit
2024-02-01
und2024-04-01-preview
und neueren API-Versionen.
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{"enhancements":{"ocr":{"enabled":true},"grounding":{"enabled":true}},"dataSources":[{"type":"AzureComputerVision","parameters":{"endpoint":" <Computer Vision Resource Endpoint> ","key":"<Computer Vision Resource Key>"}}],"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{"type":"image_url","image_url":"https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"}]}]}'
Beispielantwort
{
"id": "chatcmpl-6v7mkQj980V1yBec6ETrKPRqFjNw9",
"object": "chat.completion",
"created": 1679072642,
"model": "gpt-35-turbo",
"usage":
{
"prompt_tokens": 58,
"completion_tokens": 68,
"total_tokens": 126
},
"choices":
[
{
"message":
{
"role": "assistant",
"content": "Yes, other Azure AI services also support customer managed keys.
Azure AI services offer multiple options for customers to manage keys, such as
using Azure Key Vault, customer-managed keys in Azure Key Vault or
customer-managed keys through Azure Storage service. This helps customers ensure
that their data is secure and access to their services is controlled."
},
"finish_reason": "stop",
"index": 0
}
]
}
Die Ausgabeformatierung wurde zur erleichterten Lesbarkeit angepasst, die tatsächliche Ausgabe ist ein einzelner Textblock ohne Zeilenumbrüche.
In der Beispielantwort ist finish_reason
dasselbe wie stop
. Wenn finish_reason
gleich content_filter
ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.
Wichtig
Die Parameter functions
und function_call
wurden mit der Veröffentlichung der Version 2023-12-01-preview
der API als veraltet markiert. Der Ersatz für functions
ist der Parameter tools
. Der Ersatz für function_call
ist der Parameter tool_choice
. Parallele Funktionsaufrufe, die als Teil von 2023-12-01-preview
eingeführt wurden, werden nur mit gpt-35-turbo
(1106) und gpt-4
(1106-Vorschau) unterstützt, auch als GPT-4 Turbo Preview bezeichnet.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
messages |
array | Erforderlich | Die Sammlung von Kontextnachrichten, die dieser Chatabschlussanforderung zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen zum Verhalten des Assistenten enthält, gefolgt von abwechselnden Nachrichten zwischen den Rollen „Benutzer“ und „Assistent“. | |
temperature |
Zahl | Optional | 1 | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
n |
integer | Optional | 1 | Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. |
stream |
boolean | Optional | false | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] -Nachricht beendet wird. |
stop |
Zeichenfolge oder Array | Optional | NULL | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
max_tokens |
integer | Optional | inf | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). |
presence_penalty |
number | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
frequency_penalty |
number | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
logit_bias |
Objekt (object) | Optional | NULL | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
user |
Zeichenfolge | Optional | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | |
function_call |
Optional | [Deprecated in 2023-12-01-preview replacement parameter is tools_choice] Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. auto bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich. |
||
functions |
FunctionDefinition[] |
Optional | [Deprecated in 2023-12-01-preview replacement paremeter is tools] Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich. |
|
tools |
Zeichenfolge (Der Typ des Tools. Nur function wird unterstützt.) |
Optional | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-12-01-preview erforderlich. |
|
tool_choice |
Zeichenfolge oder Objekt | Optional | „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. „None“ bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type: "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. Für diesen Parameter ist die API-Version 2023-12-01-preview oder höher erforderlich. |
ChatMessage
Eine einzelne, rollenbezogene Nachricht innerhalb einer Chatvervollständigungsinteraktion.
Name | Typ | Beschreibung |
---|---|---|
Inhalt | Zeichenfolge | Der Text, der dieser Nachrichtennutzlast zugeordnet ist. |
function_call | FunctionCall | Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. |
name | Zeichenfolge | Der Name (name ) des Autors dieser Nachricht. Der Name (name ) ist erforderlich, wenn die Rolle „function “ lautet, und sollte der Name der Funktion sein, deren Antwort sich im Inhalt (content ) befindet. Kann a-z, A-Z, 0-9 und Unterstriche mit einer maximalen Länge von 64 Zeichen enthalten. |
role | ChatRole | Die Rolle, die dieser Nachrichtennutzlast zugeordnet ist. |
ChatRole
Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chatvervollständigungsinteraktion.
Name | Typ | Beschreibung |
---|---|---|
assistant | Zeichenfolge | Die Rolle, die Antworten auf vom System angewiesene, vom Benutzer angeforderte Eingaben bereitstellt. |
Funktion | Zeichenfolge | Die Rolle, die Funktionsergebnisse für Chatvervollständigungen bereitstellt. |
system | Zeichenfolge | Die Rolle, die das Verhalten des Assistenten anweist oder festlegt. |
user | Zeichenfolge | Die Rolle, die Eingaben für Chatvervollständigungen bereitstellt. |
Funktion
Dies wird mit dem Parameter tools
verwendet, der in der API-Version 2023-12-01-preview
hinzugefügt wurde.
Name | Typ | BESCHREIBUNG |
---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a-z, A-Z, 0-9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
Parameter | Objekt | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz. |
FunctionCall-Deprecated
Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. Hierfür ist die API-Version 2023-07-01-preview
erforderlich.
Name | Typ | Beschreibung |
---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Modell generiert nicht immer gültige JSON-Werte und erstellt möglicherweise Parameter, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
FunctionDefinition-Deprecated
Die Definition einer vom Aufrufer angegebenen Funktion, die Chatvervollständigungen als Reaktion auf übereinstimmende Benutzereingaben aufrufen können. Hierfür ist die API-Version 2023-07-01-preview
erforderlich.
Name | Typ | BESCHREIBUNG |
---|---|---|
Beschreibung | string | Eine Beschreibung der Funktion. Das Modell verwendet diese Beschreibung, wenn die Funktion ausgewählt und die Parameter interpretiert werden. |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. |
Parameter | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. |
Erweiterungen für Vervollständigungen
Die Dokumentation für diesen Abschnitt wurde entfernt. Informationen finden Sie stattdessen in der Referenzdokumentation zu Azure OpenAI On Your Data.
Bildgenerierung
Anfordern eines generierten Bildes (DALL-E 3)
Generieren und Abrufen eines Batch von Bildern aus einem Textuntertitel.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name Ihrer DALL-E 3-Modellbereitstellung wie MyDalle3. Sie müssen zuerst ein DALL-E 3-Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-12-01-preview (retiring July 1, 2024)
Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-04-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
prompt |
Zeichenfolge | Erforderlich | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. | |
n |
integer | Optional | 1 | Die Anzahl der zu generierenden Bilder. Für DALL-E 3 wird nur n=1 unterstützt. |
size |
Zeichenfolge | Optional | 1024x1024 |
Die Größe der generierten Bilder. Muss 1792x1024 , 1024x1024 oder 1024x1792 sein. |
quality |
Zeichenfolge | Optional | standard |
Die Qualität der generierten Bilder. Muss hd oder standard sein. |
response_format |
Zeichenfolge | Optional | url |
Das Format, in dem die generierten Bilder zurückgegeben werden, muss url (eine URL, die auf das Bild verweist) oder b64_json (der Base 64-Byte-Code im JSON-Format) sein. |
style |
Zeichenfolge | Optional | vivid |
Die Größe der generierten Bilder. Muss natural oder vivid sein (für hyperrealistische / dramatische Bilder). |
user |
Zeichenfolge | Optional | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
Beispielanforderung
curl -X POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{
"prompt": "An avocado chair",
"size": "1024x1024",
"n": 1,
"quality": "hd",
"style": "vivid"
}'
Beispielantwort
Der Vorgang gibt einen Statuscode 202
und ein GenerateImagesResponse
-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.
{
"created": 1698116662,
"data": [
{
"url": "url to the image",
"revised_prompt": "the actual prompt that was used"
},
{
"url": "url to the image"
},
...
]
}
Anfordern eines generierten Bildes (DALL-E 2 Vorschau)
Generieren Sie einen Batch von Bildern aus einem Textuntertitel.
POST https://{your-resource-name}.openai.azure.com/openai/images/generations:submit?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
prompt |
Zeichenfolge | Erforderlich | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen. | |
n |
integer | Optional | 1 | Die Anzahl der zu generierenden Bilder. Der Wert muss zwischen 1 und 5 liegen. |
size |
Zeichenfolge | Optional | 1\.024 × 1.024 | Die Größe der generierten Bilder. Muss 256x256 , 512x512 oder 1024x1024 sein. |
Beispielanforderung
curl -X POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/images/generations:submit?api-version=2023-06-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{
"prompt": "An avocado chair",
"size": "512x512",
"n": 3
}'
Beispielantwort
Der Vorgang gibt einen Statuscode 202
und ein GenerateImagesResponse
-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.
{
"id": "f508bcf2-e651-4b4b-85a7-58ad77981ffa",
"status": "notRunning"
}
Abrufen eines generierten Bildergebnisses (DALL-E 2 Vorschau)
Verwenden Sie diese API, um die Ergebnisse eines Bildgenerierungsvorgangs abzurufen. Die Bildgenerierung ist derzeit nur mit api-version=2023-06-01-preview
verfügbar.
GET https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
operation-id |
Zeichenfolge | Erforderlich | Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation
Beispielanforderung
curl -X GET "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"
Beispielantwort
Nach erfolgreicher Ausführung gibt der Vorgang einen Statuscode 200
und ein OperationResponse
-JSON-Objekt zurück. Das Feld status
kann "notRunning"
(Aufgabe befindet sich in der Warteschlange, wurde aber noch nicht gestartet), "running"
, "succeeded"
, "canceled"
(Aufgabe hat ein Timeout), "failed"
oder "deleted"
sein. Ein succeeded
-Status gibt an, dass das generierte Bild unter der angegebenen URL zum Download verfügbar ist. Wenn mehrere Bilder generiert wurden, werden alle ihre URLs im Feld result.data
zurückgegeben.
{
"created": 1685064331,
"expires": 1685150737,
"id": "4b755937-3173-4b49-bf3f-da6702a3971a",
"result": {
"data": [
{
"url": "<URL_TO_IMAGE>"
},
{
"url": "<URL_TO_NEXT_IMAGE>"
},
...
]
},
"status": "succeeded"
}
Löschen eines generierten Bildes vom Server (DALL-E 2 Vorschau)
Sie können die von der Anforderung zurückgegebene Vorgangs-ID verwenden, um das entsprechende Bild vom Azure-Server zu löschen. Generierte Bilder werden standardmäßig nach 24 Stunden automatisch gelöscht, aber Sie können den Löschvorgang bei Bedarf früher auslösen.
DELETE https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
operation-id |
Zeichenfolge | Erforderlich | Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation
Beispielanforderung
curl -X DELETE "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"
Antwort
Der Vorgang gibt bei erfolgreicher Ausführung einen Statuscode 204
zurück. Diese API ist nur erfolgreich, wenn sich der Vorgang im Endzustand befindet (nicht running
).
Spracherkennung
Sie können ein Whisper-Modell in Azure OpenAI Service für die Spracherkennungstranskription oder Sprachübersetzung verwenden. Weitere Informationen zur Verwendung eines Whisper-Modells finden Sie im Schnellstart und in der Übersicht über das Whisper-Modell.
Anfordern einer Sprache-in-Text-Transkription
Transkribiert eine Audiodatei.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/transcriptions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor. |
Unterstützte Versionen
2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-04-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | Beschreibung |
---|---|---|---|---|
file |
datei | Ja | N/V | Das zu transkribierende Audiodateiobjekt (kein Dateiname) in einem der folgenden Formate: flac , mp3 , mp4 , mpeg , mpga , m4a , ogg , wav oder webm .Die Dateigrößenbeschränkung für das Whisper-Modell in Azure OpenAI Service beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke. Alternativ können Sie die Batchtranskriptions-API von Azure KI Speech verwenden. Beispiele für Audiodateien finden Sie im Azure KI Speech SDK-Repository auf GitHub. |
language |
Zeichenfolge | Nein | Null | Die Sprache der Eingabeaudiodaten, z. B. fr . Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz.Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation. |
prompt |
Zeichenfolge | Nein | Null | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation. |
response_format |
Zeichenfolge | Nein | json | Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt. Der Standardwert ist json. |
temperature |
Zahl | Nein | 0 | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Der Standardwert ist 0. |
timestamp_granularities |
array | Optional | Segment | Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment . Hinweis: Es gibt keine zusätzliche Wartezeit für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Wartezeiten. [Hinzugefügt in 2024-04-01-Vorschau] |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/transcriptions?api-version=2023-09-01-preview \
-H "Content-Type: multipart/form-data" \
-H "api-key: $YOUR_API_KEY" \
-F file="@./YOUR_AUDIO_FILE_NAME.wav" \
-F "language=en" \
-F "prompt=The transcript contains zoology terms and geographical locations." \
-F "temperature=0" \
-F "response_format=srt"
Beispielantwort
1
00:00:00,960 --> 00:00:07,680
The ocelot, Lepardus paradalis, is a small wild cat native to the southwestern United States,
2
00:00:07,680 --> 00:00:13,520
Mexico, and Central and South America. This medium-sized cat is characterized by
3
00:00:13,520 --> 00:00:18,960
solid black spots and streaks on its coat, round ears, and white neck and undersides.
4
00:00:19,760 --> 00:00:27,840
It weighs between 8 and 15.5 kilograms, 18 and 34 pounds, and reaches 40 to 50 centimeters
5
00:00:27,840 --> 00:00:34,560
16 to 20 inches at the shoulders. It was first described by Carl Linnaeus in 1758.
6
00:00:35,360 --> 00:00:42,880
Two subspecies are recognized, L. p. paradalis and L. p. mitis. Typically active during twilight
7
00:00:42,880 --> 00:00:48,480
and at night, the ocelot tends to be solitary and territorial. It is efficient at climbing,
8
00:00:48,480 --> 00:00:54,480
leaping, and swimming. It preys on small terrestrial mammals such as armadillo, opossum,
9
00:00:54,480 --> 00:00:56,480
and lagomorphs.
Anfordern einer Sprache-in-Text-Übersetzung
Übersetzt eine Audiodatei aus einer anderen Sprache ins Englische. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/translations?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor. |
Unterstützte Versionen
2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | Beschreibung |
---|---|---|---|---|
file |
datei | Ja | Nicht zutreffend | Das zu transkribierende Audiodateiobjekt (nicht der Dateiname) in einem der folgenden Formate: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav oder webm. Die Dateigrößenbegrenzung für das Whisper-Modell von Azure OpenAI beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke. Beispiele für Audiodateien können Sie aus dem Azure KI Speech SDK-Repository auf GitHub herunterladen. |
prompt |
Zeichenfolge | Nein | Null | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation. |
response_format |
Zeichenfolge | Nein | json | Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt. Der Standardwert ist json. |
temperature |
Zahl | Nein | 0 | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Der Standardwert ist 0. |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/translations?api-version=2023-09-01-preview \
-H "Content-Type: multipart/form-data" \
-H "api-key: $YOUR_API_KEY" \
-F file="@./YOUR_AUDIO_FILE_NAME.wav" \
-F "temperature=0" \
-F "response_format=json"
Beispielantwort
{
"text": "Hello, my name is Wolfgang and I come from Germany. Where are you heading today?"
}
Sprachsynthese
Synthetisieren Sie Text in Sprache.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/speech?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Sprachsynthese-Modellimplementierung, z. B. MyTextToSpeechDeployment. Sie müssen zuerst ein Sprachsynthesemodell (z. B. tts-1 oder tts-1-hd ) bereitstellen, bevor Sie Anrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor. |
Unterstützte Versionen
2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-04-01-preview
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
model |
Zeichenfolge | Ja | N/V | Eines der verfügbaren TTS-Modelle: tts-1 oder tts-1-hd |
input |
Zeichenfolge | Ja | N/V | Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Geben Sie den Eingabetext in der gewünschten Sprache an.1 |
voice |
Zeichenfolge | Ja | N/V | Die Stimme, die beim Generieren des Audiosignals verwendet werden soll. Unterstützte Stimmen sind alloy , echo , fable , onyx , nova und shimmer . Hörproben der Stimmen sind im Leitfaden für die OpenAI-Sprachsynthese verfügbar. |
1 Die Sprachsynthesemodelle unterstützten in der Regel die gleichen Sprachen wie das Whisper-Modell. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/speech?api-version=2024-02-15-preview \
-H "api-key: $YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tts-hd",
"input": "I'm excited to try text to speech.",
"voice": "alloy"
}' --output speech.mp3
Beispielantwort
Die Sprache wird als Audiodatei aus der vorherigen Anforderung zurückgegeben.
Verwaltungs-APIs
Azure OpenAI wird als Teil von Azure KI Services bereitgestellt. Alle Azure KI Services-Instanzen stützen sich auf dieselben Verwaltungs-APIs für die Erstellung, Aktualisierung und Löschung von Vorgängen. Die Verwaltungs-APIs werden auch für die Bereitstellung von Modellen innerhalb einer Azure OpenAI-Ressource verwendet.
Referenzdokumentation für Verwaltungs-APIs
Nächste Schritte
Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.