Referenz zur REST-API von Azure OpenAI Service
Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.
API-Spezifikationen
Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:
- Steuerungsebene
- Datenebene: Erstellung
- Datenebene: Rückschluss
Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.
API | Neuestes Vorschaurelease | Neuestes allgemein verfügbares Release | Spezifikationen | Beschreibung |
---|---|---|---|---|
Steuerungsebene | 2024-06-01-preview |
2023-05-01 |
Spezifikationsdateien | Azure OpenAI teilt sich eine gemeinsame Steuerungsebene mit allen anderen Azure KI Services-Instanzen. Die Steuerungsebenen-API wird unter anderem zum Erstellen von Azure OpenAI-Ressourcen, für die Modellimplementierung und für andere übergeordnete Ressourcenverwaltungsaufgaben verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist. |
Datenebene: Erstellung | 2024-10-01-preview |
2024-06-01 |
Spezifikationsdateien | Die Erstellungs-API der Datenebene steuert die Optimierung, Dateiuploads, Datenerfassungsaufträge, Batchvorgänge und bestimmte Abfragen auf Modellebene. |
Datenebene: Rückschluss | 2024-10-01-preview |
2024-06-01 |
Spezifikationsdateien | Die Datenebenen-API für Rückschlüsse stellt die Rückschlussfunktionen/-endpunkte für Features wie Vervollständigungen, Chatvervollständigungen, Einbettungen, Speech/Whisper, „On Your Data“, DALL-E, Assistenten usw. bereit. |
Authentifizierung
Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.
API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den
api-key
-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als
Authorization
-Header in eine Anforderung eingefügt. Dem bereitgestellten Token mussBearer
vorangestellt werden. Beispiel:Bearer YOUR_AUTH_TOKEN
. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version
ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Zum Beispiel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Datenebene: Rückschluss
Der Rest des Artikels behandelt das neueste Vorschaurelease der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse: 2024-06-01
.
Eine Dokumentation für das neueste Vorschau-API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.
Vervollständigungen
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des -Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge oder Array | Die Prompts, für die Vervollständigungen generiert werden sollen, als Zeichenfolge oder Array von Zeichenfolgen codiert. Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, generiert das Modell wie am Anfang eines neuen Dokuments. Die maximal zulässige Größe der Zeichenfolgenliste ist 2048. |
No | |
max_tokens | integer | Die Tokenanzahl Ihrer Äußerung plus „max_tokens“ darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen). Der Mindestwert ist 0. | Nein | 16 |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme. Höhere Werte bedeuten, dass das Modell mehr Risiken eingehen wird. Verwenden Sie 0,9 für kreativere Anwendungen und 0 (maximale Stichprobenentnahme für Argument) für Anwendungen mit einer klar definierten Antwort. Wir empfehlen im Allgemeinen, dies oder „top_p“ zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
logit_bias | Objekt | Der Standardwert ist „null“. Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Sie können dieses Tokenizertool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) verwenden, um Text in Token-IDs zu konvertieren. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise„{"50256":-100}“ übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. | No | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
n | integer | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Zulässiger Mindestwert: 1. Zulässiger Maximalwert: 128. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. |
No | 1 |
Datenstrom | boolean | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn diese Option festgelegt ist, werden die Token als reine Serverereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch die Nachricht „data: [DONE]“ beendet wird. | No | False |
logprobs | integer | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von „logprobs“ sowie die ausgewählten Token ein. Wenn „logprobs“ z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Token zurück. Die API gibt immer den logprob-Wert des gesampelten Tokens zurück, sodass die Antwort bis zu logprobs + 1 Elemente enthalten kann. Zulässiger Mindestwert: 0. Zulässiger Maximalwert: 5. |
No | Keine |
Suffix | Zeichenfolge | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. | No | |
Echo | boolean | Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. | No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten. | No | |
completion_config | Zeichenfolge | No | ||
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
best_of | integer | Generiert serverseitige „best_of“-Vervollständigungen und gibt die beste (als diejenige mit der geringsten logarithmierten Wahrscheinlichkeit pro Token definiert) zurück. Die Ergebnisse können nicht gestreamt werden. Wenn Sie diese Funktion mit „n“ verwenden, steuert „best_of“ die Anzahl der möglichen Vervollständigungen, und „n“ gibt an, wie viele Vervollständigungen zurückgegeben werden sollen. „best_of“ muss dabei größer als „n“ sein. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. Maximalwert: 128. |
No |
Antworten
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ja | ||
Objekt | Zeichenfolge | Ja | ||
erstellte | integer | Ja | ||
Modell | Zeichenfolge | Ja | ||
prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
Optionen | array | Ja | ||
Nutzung | Objekt | No |
Eigenschaften für „usage“
completion_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
completion_tokens | Zahl | ||
prompt_tokens | Zahl | ||
total_tokens | Zahl |
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | Objekt |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | errorResponse |
Beispiele
Beispiel
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Einbettungen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine-Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
input | Zeichenfolge oder Array | Eingabetext, für den Sie Einbettungen abrufen können, codiert als Zeichenfolge. Übergeben Sie ein Zeichenfolgenarray, um Einbettungen für mehrere Eingaben in einer einzelnen Anforderung zu erhalten. Jedes Array darf 2048 Eingaben nicht überschreiten. Sofern Sie keinen Code einbetten, empfiehlt es sich, ein Zeilenvorschubzeichen (\n) in Eingaben durch ein einzelnes Leerzeichen zu ersetzen, da wir festgestellt haben, dass die Ergebnisse schlechter ausfallen, wenn Zeilenvorschubzeichen vorhanden sind. |
Ja | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
input_type | Zeichenfolge | Eingabetyp der zu verwendenden Einbettungssuche | No | |
encoding_format | Zeichenfolge | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. |
No | |
Dimensionen | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No |
Antworten
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
Modell | Zeichenfolge | Ja | ||
data | array | Ja | ||
Nutzung | Objekt | Ja |
Eigenschaften für „usage“
prompt_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
total_tokens | integer |
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | Objekt |
Beispiele
Beispiel
Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatvervollständigungen
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
Erstellt eine Vervollständigung für die Chatnachricht
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des -Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE] -Nachricht beendet. |
No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | No | |
max_tokens | integer | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). | No | 4096 |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. | No | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
Cloud an das Gerät | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode | No | |
data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
n | integer | Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. | No | 1 |
seed | integer | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Determinismus ist nicht garantiert, und Sie sollten auf den Antwortparameter system_fingerprint verweisen, um Änderungen im Back-End zu überwachen. |
No | 0 |
logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. Diese Option ist derzeit im gpt-4-vision-preview -Modell nicht verfügbar. |
No | False |
top_logprobs | integer | Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. |
No | |
response_format | Objekt | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Wird verwendet, um den JSON-Modus zu aktivieren. | No | |
tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. | No | |
Toolauswahl | chatCompletionToolChoiceOption | Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. |
No | |
functions | array | Zugunsten von tools eingestellt. Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
function_call | Zeichenfolge oder Objekt | Zugunsten von tool_choice eingestellt. Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. „auto“ bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name":\ "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. „auto“ ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No |
Eigenschaften für „response_format“
type
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Typ | chatCompletionResponseFormat | Das Festlegen auf json_object aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt. |
Text |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | createChatCompletionResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | errorResponse |
Beispiele
Beispiel
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "system",
"content": "you're a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "you're an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Transkribiert Audio in die Eingabesprache
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des Whisper-Modells |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: multipart/form-data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Das zu transkribierende Audiodateiobjekt | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
language | Zeichenfolge | Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. | No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | audioResponse oder audioVerboseResponse | |
text/plain | Zeichenfolge | Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war) |
Beispiele
Beispiel
Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Beispiel
Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
Transkribiert Audioeingaben und übersetzt sie in englischen Text
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des Whisper-Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: multipart/form-data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Die zu übersetzende Audiodatei | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | audioResponse oder audioVerboseResponse | |
text/plain | Zeichenfolge | Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war) |
Beispiele
Beispiel
Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Beispiel
Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Bildgenerierung
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
Generiert eine Reihe von Bildern auf der Grundlage einer Textbeschriftung für eine bestimmte DALL-E-Modellimplementierung
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des dall-e -Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. | Ja | |
n | integer | Die Anzahl der zu generierenden Bilder. | No | 1 |
size | imageSize | Die Größe der generierten Bilder. | No | 1\.024 × 1.024 |
response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
qualität | imageQuality | Die Qualität des zu generierenden Bilds | No | Standard |
style | imageStyle | Die Größe der generierten Bilder. | No | vivid |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | dalleErrorResponse |
Beispiele
Beispiel
Erstellt Bilder auf der Grundlage eines Prompts.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Komponenten
errorResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
error | error | No |
errorBase
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Code | string | Nein | ||
message | Zeichenfolge | No |
Fehler
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
param | Zeichenfolge | Nein | ||
Typ | Zeichenfolge | No | ||
inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | No |
innerError
Innerer Fehler mit zusätzlichen Details.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt | No | |
content_filter_results | contentFilterPromptResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt
Beschreibung: Fehlercodes für das innere Fehlerobjekt
Typ: string
Standardwert:
Enumerationsname: InnerErrorCode
Enumerationswerte:
Wert | Beschreibung |
---|---|
ResponsibleAIPolicyViolation | Der Prompt verstieß gegen eine von mehreren Inhaltsfilterregeln. |
dalleErrorResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
error | dalleError | No |
dalleError
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
param | Zeichenfolge | Nein | ||
Typ | Zeichenfolge | No | ||
inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | No |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt | No | |
content_filter_results | dalleFilterResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No | |
revised_prompt | Zeichenfolge | Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde | No |
contentFilterResultBase
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja |
contentFilterSeverityResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja | ||
severity | Zeichenfolge | No |
contentFilterDetectedResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja | ||
detected | boolean | Nein |
contentFilterDetectedWithCitationResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
citation | Objekt | No |
Eigenschaften für „citation“
URL
Name | Typ | Beschreibung | Standard |
---|---|---|---|
URL | Zeichenfolge |
Lizenz
Name | Typ | Beschreibung | Standard |
---|---|---|---|
license | Zeichenfolge |
contentFilterResultsBase
Informationen zu den Ergebnissen der Inhaltsfilterung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
error | errorBase | No |
contentFilterPromptResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
error | errorBase | No | ||
Jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Drittanbietertexten und Profanität, sofern diese erkannt wurde, und ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
error | errorBase | No | ||
protected_material_text | contentFilterDetectedResult | No | ||
protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt_index | integer | No | ||
content_filter_results | contentFilterPromptResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
dalleContentFilterResults
Informationen zu den Ergebnissen der Inhaltsfilterung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
Jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE] -Nachricht beendet. |
No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | No | |
max_tokens | integer | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). | No | 4096 |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. | No | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
createChatCompletionRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE] -Nachricht beendet. |
No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | No | |
max_tokens | integer | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). | No | 4096 |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. | No | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
Cloud an das Gerät | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode | No | |
data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
n | integer | Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. | No | 1 |
seed | integer | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Determinismus ist nicht garantiert, und Sie sollten auf den Antwortparameter system_fingerprint verweisen, um Änderungen im Back-End zu überwachen. |
No | 0 |
logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. Diese Option ist derzeit im gpt-4-vision-preview -Modell nicht verfügbar. |
No | False |
top_logprobs | integer | Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. |
No | |
response_format | Objekt | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Wird verwendet, um den JSON-Modus zu aktivieren. | No | |
tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. | No | |
Toolauswahl | chatCompletionToolChoiceOption | Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. |
No | |
functions | array | Zugunsten von tools eingestellt. Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
function_call | Zeichenfolge oder Objekt | Zugunsten von tool_choice eingestellt. Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. „auto“ bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name":\ "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. „auto“ ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No |
Eigenschaften für „response_format“
type
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Typ | chatCompletionResponseFormat | Das Festlegen auf json_object aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt. |
Text |
chatCompletionResponseFormat
Das Festlegen auf json_object
aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt.
Beschreibung: Das Festlegen auf json_object
aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt.
Typ: string
Standard: text
Enumerationsname: ChatCompletionResponseFormat
Enumerationswerte:
Wert | Beschreibung |
---|---|
Text | Das Antwortformat ist eine Nur-Text-Zeichenfolge. |
json_object | Das Antwortformat ist ein JSON-Objekt. |
chatCompletionFunction
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
description | string | Eine Beschreibung dessen, was die Funktion tut | No | |
Parameter | chatCompletionFunctionParameters | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz. | No |
chatCompletionFunctionParameters
Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz.
chatCompletionRequestMessage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Die Rolle des Nachrichtenerstellers | Ja |
chatCompletionRequestMessageRole
Die Rolle des Nachrichtenerstellers
Beschreibung: Die Rolle des Nachrichtenerstellers
Typ: string
Standardwert:
Enumerationsname: ChatCompletionRequestMessageRole
Enumerationswerte:
Wert | Beschreibung |
---|---|
system | Die Rolle des Nachrichtenerstellers ist „system“. |
user | Die Rolle des Nachrichtenerstellers ist „user“. |
assistant | Die Rolle des Nachrichtenerstellers ist „assistant“. |
Tool | Die Rolle des Nachrichtenerstellers ist „tool“. |
Funktion | Veraltet. Die Rolle des Nachrichtenerstellers ist „function“. |
chatCompletionRequestMessageSystem
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Die Rolle des Nachrichtenerstellers | Ja | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No |
chatCompletionRequestMessageUser
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Die Rolle des Nachrichtenerstellers | Ja | |
content | Zeichenfolge oder Array | No |
chatCompletionRequestMessageContentPart
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | chatCompletionRequestMessageContentPartType | Der Typ des Inhaltsteils | Ja |
chatCompletionRequestMessageContentPartType
Der Typ des Inhaltsteils
Beschreibung: Der Typ des Inhaltsteils
Typ: string
Standardwert:
Enumerationsname: ChatCompletionRequestMessageContentPartType
Enumerationswerte:
Wert | Beschreibung |
---|---|
Text | Der Typ des Inhaltsteils ist „text“. |
image_url | Der Typ des Inhaltsteils ist „image_url“. |
chatCompletionRequestMessageContentPartText
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | chatCompletionRequestMessageContentPartType | Der Typ des Inhaltsteils | Ja | |
Text | Zeichenfolge | Der Textinhalt. | No |
chatCompletionRequestMessageContentPartImage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | chatCompletionRequestMessageContentPartType | Der Typ des Inhaltsteils | Ja | |
url | Zeichenfolge | Entweder eine URL des Bilds oder die base64-codierten Bilddaten | No | |
detail | imageDetailLevel | Gibt den Detailgrad des Bilds an. | No | auto |
imageDetailLevel
Gibt den Detailgrad des Bilds an.
Beschreibung: Gibt den Detailgrad des Bilds an
Typ: string
Standard: auto
Enumerationsname: ImageDetailLevel
Enumerationswerte:
Wert | BESCHREIBUNG |
---|---|
auto | Die Detailebene des Bilds ist „auto“. |
low | Die Detailebene des Bilds ist „low“. |
high | Die Detailebene des Bilds ist „high“. |
chatCompletionRequestMessageAssistant
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Die Rolle des Nachrichtenerstellers | Ja | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No | |
tool_calls | array | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | No | |
context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist. |
No |
azureChatExtensionConfiguration
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja |
azureChatExtensionType
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Beschreibung: Eine Darstellung der Konfigurationsdaten einer einzelnen Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Typ: string
Standardwert:
Enumerationsname: AzureChatExtensionType
Enumerationswerte:
Wert | Beschreibung |
---|---|
azure_search | Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar |
azure_cosmos_db | Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar |
azureSearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird | No |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions | Ja | ||
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
role_information | Zeichenfolge | Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. | No | |
endpoint | Zeichenfolge | Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. | Ja | |
index_name | Zeichenfolge | Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. | Ja | |
fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. | No | |
query_type | azureSearchQueryType | Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll | No | |
semantic_configuration | Zeichenfolge | Die zusätzliche semantische Konfiguration für die Abfrage. | No | |
filter | Zeichenfolge | Suchfilter. | No | |
embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No |
azureSearchQueryType
Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll
Beschreibung: Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll
Typ: string
Standardwert:
Enumerationsname: azureSearchQueryType
Enumerationswerte:
Wert | Beschreibung |
---|---|
Einfach | Stellt den standardmäßigen einfachen Abfrageparser dar. |
semantisch | Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar. |
vector | Stellt die Vektorsuche über berechnete Daten dar. |
vector_simple_hybrid | Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar. |
vector_semantic_hybrid | Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar. |
azureCosmosDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | azureCosmosDBChatExtensionParameters | Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden. |
No |
azureCosmosDBChatExtensionParameters
Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge | Ja | |
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
role_information | Zeichenfolge | Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. | No | |
database_name | Zeichenfolge | Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll | Ja | |
container_name | Zeichenfolge | Der Name des Azure Cosmos DB-Ressourcencontainers | Ja | |
index_name | Zeichenfolge | Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll | Ja | |
fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource | Ja | |
embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Ja |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Ja | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Ja |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja |
onYourDataAuthenticationType
Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data
Beschreibung: Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data
Typ: string
Standardwert:
Enumerationsname: OnYourDataAuthenticationType
Enumerationswerte:
Wert | Beschreibung |
---|---|
api_key | Authentifizierung per API-Schlüssel |
connection_string | Authentifizierung per Verbindungszeichenfolge |
system_assigned_managed_identity | Authentifizierung per systemseitig zugewiesener verwalteter Identität |
user_assigned_managed_identity | Authentifizierung per benutzerseitig zugewiesener verwalteter Identität |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
Schlüssel | Zeichenfolge | Der für die Authentifizierung zu verwendende API-Schlüssel. | No |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
connection_string | Zeichenfolge | Die Verbindungszeichenfolge für die Authentifizierung | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
managed_identity_resource_id | Zeichenfolge | Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. | No |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja |
onYourDataVectorizationSourceType
Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren
Beschreibung: Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
Vektorsuche.
Typ: string
Standardwert:
Enumerationsname: OnYourDataVectorizationSourceType
Enumerationswerte:
Wert | Beschreibung |
---|---|
endpoint | Stellt die Vektorisierung dar, die von Aufrufen durchgeführt wird, die von öffentlichen Diensten an ein Azure OpenAI-Einbettungsmodell gerichtet werden |
deployment_name | Stellt den zu verwendenden Namen einer Ada-Modellimplementierung dar. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. Das Feature „On Your Data“ verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja | |
deployment_name | Zeichenfolge | Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. | No |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Einbettungsendpunkt für Azure OpenAI basiert.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja | |
authentication | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. | No | |
endpoint | Zeichenfolge | Gibt den Endpunkt an, der für die Vektorisierung verwendet werden soll. Dieser Endpunkt muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diesen Endpunkt jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. | No |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
citations | array | Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. | No | |
Absicht | Zeichenfolge | Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. | No |
Quellenangaben
Zitatinformationen zur Nachricht einer Chatvervollständigungsantwort
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
content | Zeichenfolge | Der Inhalt des Zitats. | Ja | |
title | Zeichenfolge | Der Titel des Zitats. | No | |
url | Zeichenfolge | Die URL des Zitats. | No | |
filepath | Zeichenfolge | Der Dateipfad des Zitats. | No | |
chunk_id | Zeichenfolge | Die Segment-ID des Zitats. | No |
chatCompletionMessageToolCall
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Die ID des Toolaufrufs | Ja | |
Typ | toolCallType | Der Typ des Toolaufrufs (in diesem Fall: function ). |
Ja | |
Funktion | Objekt | Die Funktion, die das Modell aufgerufen hat | Ja |
Eigenschaften für „function“
Name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise Parameter erstellt, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
toolCallType
Der Typ des Toolaufrufs (in diesem Fall: function
).
Beschreibung: Der Typ des Toolaufrufs (in diesem Fall: function
)
Typ: string
Standardwert:
Enumerationsname: ToolCallType
Enumerationswerte:
Wert | BESCHREIBUNG |
---|---|
Funktion | Der Typ des Toolaufrufs ist „function“. |
chatCompletionRequestMessageTool
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Die Rolle des Nachrichtenerstellers | Ja | |
tool_call_id | Zeichenfolge | Toolaufruf, auf den diese Nachricht reagiert. | No | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No |
chatCompletionRequestMessageFunction
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function ).Mögliche Werte: function |
Yes | |
Name | Zeichenfolge | Der Inhalt der Nachricht. | No | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No |
createChatCompletionResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ein eindeutiger Bezeichner für die Chatvervollständigung | Ja | |
Objekt | chatCompletionResponseObject | Der Objekttyp. | Ja | |
erstellte | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde | Ja | |
Modell | Zeichenfolge | Das Modell, das für die Chatvervollständigung verwendet wird | Ja | |
Nutzung | completionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | No | |
system_fingerprint | Zeichenfolge | Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No | |
prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
Optionen | array | No |
chatCompletionChoiceLogProbs
Logarithmierte Wahrscheinlichkeit für die Auswahl
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
content | array | Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit | Ja |
chatCompletionTokenLogprob
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
token | Zeichenfolge | Das Token. | Ja | |
logprob | Zahl | Die logarithmierte Wahrscheinlichkeit dieses Tokens | Ja | |
Byte | array | Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. |
Ja | |
top_logprobs | array | Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. |
Ja |
ChatCompletionResponseMessage
Eine vom Modell generierte Chatvervollständigungsnachricht
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | Die Rolle des Antwortnachrichterstellers | No | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No | |
tool_calls | array | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | No | |
function_call | chatCompletionFunctionCall | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. |
No | |
context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist. |
No |
chatCompletionResponseMessageRole
Die Rolle des Antwortnachrichterstellers
Beschreibung: Die Rolle des Autors der Antwortnachricht
Typ: string
Standardwert:
Enumerationswerte:
- assistant
chatCompletionToolChoiceOption
Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none
bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto
bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}}
eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
Mögliche Werte für diese Komponente:
chatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
No | |
Funktion | Objekt | No |
Eigenschaften für „function“
Name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
chatCompletionFunctionCall
Veraltet und durch tool_calls
ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. | Ja | |
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise Parameter erstellt, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. | Ja |
chatCompletionsResponseCommon
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ein eindeutiger Bezeichner für die Chatvervollständigung | Ja | |
Objekt | chatCompletionResponseObject | Der Objekttyp. | Ja | |
erstellte | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde | Ja | |
Modell | Zeichenfolge | Das Modell, das für die Chatvervollständigung verwendet wird | Ja | |
Nutzung | completionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | No | |
system_fingerprint | Zeichenfolge | Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No |
chatCompletionResponseObject
Der Objekttyp.
Beschreibung: Der Objekttyp
Typ: string
Standardwert:
Enumerationsname: ChatCompletionResponseObject
Enumerationswerte:
Wert | Beschreibung |
---|---|
chat.completion | Der Objekttyp ist „chat.completion“. |
completionUsage
Nutzungsstatistiken für die Vervollständigungsanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt_tokens | integer | Anzahl der Token im Prompt. | Ja | |
completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung | Ja | |
total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). | Ja |
chatCompletionTool
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | chatCompletionToolType | Der Typ des Tools. Derzeit wird nur function unterstützt. |
Ja | |
Funktion | Objekt | Ja |
Eigenschaften für „function“
Beschreibung
Name | Typ | Beschreibung | Default |
---|---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. |
Name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
Parameter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Parameter | chatCompletionFunctionParameters | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz. |
chatCompletionToolType
Der Typ des Tools. Derzeit wird nur function
unterstützt.
Beschreibung: Der Typ des Tools. Derzeit wird nur function
unterstützt.
Typ: string
Standardwert:
Enumerationsname: ChatCompletionToolType
Enumerationswerte:
Wert | BESCHREIBUNG |
---|---|
Funktion | Der Typ des Tools ist „function“. |
chatCompletionChoiceCommon
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | No | ||
finish_reason | Zeichenfolge | No |
createTranslationRequest
Übersetzungsanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Die zu übersetzende Audiodatei | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Text | Zeichenfolge | Übersetzter oder transkribierter Text | Ja |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Text | Zeichenfolge | Übersetzter oder transkribierter Text | Ja | |
task | Zeichenfolge | Die Art von Audiotask | No | |
language | Zeichenfolge | Sprache. | No | |
duration | Zahl | Dauer. | No | |
Segmente | array | No |
audioResponseFormat
Definiert das Format der Ausgabe
Beschreibung: Definiert das Format der Ausgabe
Typ: string
Standardwert:
Enumerationswerte:
- json
- Text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transkriptionsanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Das zu transkribierende Audiodateiobjekt | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
language | Zeichenfolge | Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. | No |
audioSegment
Transkriptions- oder Übersetzungssegment
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | integer | Segmentbezeichner | No | |
seek | Zahl | Der Offset des Segments | No | |
start | Zahl | Der Offset für den Segmentbeginn | No | |
end | Zahl | Der Offset für das Segmentende | No | |
Text | Zeichenfolge | Segmenttext | No | |
tokens | array | Token des Texts | No | |
Temperatur | Zahl | Temperatur | No | |
avg_logprob | Zahl | Durchschnittliche logarithmierte Wahrscheinlichkeit | No | |
compression_ratio | Zahl | Komprimierungsverhältnis | No | |
no_speech_prob | Zahl | Wahrscheinlichkeit von „keine Sprache“ | No |
imageQuality
Die Qualität des zu generierenden Bilds
Beschreibung: Die Qualität des zu generierenden Bilds
Typ: string
Standard: standard
Enumerationsname: Quality
Enumerationswerte:
Wert | BESCHREIBUNG |
---|---|
Standard | Bei Verwendung von Standardqualität werden Bilder mit Standardqualität erstellt. |
hd | Bei Verwendung von HD-Qualität werden Bilder mit mehr Details und höherer Konsistenz im gesamten Bild erstellt. |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden
Typ: string
Standard: url
Enumerationsname: ImagesResponseFormat
Enumerationswerte:
Wert | Beschreibung |
---|---|
url | Die URL für temporären Zugriff zum Herunterladen der generierten Bilder |
b64_json | Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben. |
imageSize
Die Größe der generierten Bilder.
Beschreibung: Die Größe der generierten Bilder
Typ: string
Standard: 1024x1024
Enumerationsname: Size
Enumerationswerte:
Wert | Beschreibung |
---|---|
1792x1024 | Die gewünschte Größe des generierten Bilds beträgt 1.792 × 1.024 Pixel. |
1024x1792 | Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.792 Pixel. |
1\.024 × 1.024 | Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.024 Pixel. |
imageStyle
Die Größe der generierten Bilder.
Beschreibung: Der Stil der generierten Bilder
Typ: string
Standard: vivid
Enumerationsname: Style
Enumerationswerte:
Wert | Beschreibung |
---|---|
vivid | Mit „vivid“ werden hyperrealistische und spektakuläre Bilder erstellt. |
natural | Mit „natural“ werden natürlichere und weniger hyperrealistische Bilder erstellt. |
imageGenerationsRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. | Ja | |
n | integer | Die Anzahl der zu generierenden Bilder. | No | 1 |
size | imageSize | Die Größe der generierten Bilder. | No | 1\.024 × 1.024 |
response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
qualität | imageQuality | Die Qualität des zu generierenden Bilds | No | Standard |
style | imageStyle | Die Größe der generierten Bilder. | No | vivid |
generateImagesResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
erstellte | integer | Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde | Ja | |
data | array | Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war | Ja |
imageResult
Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
url | Zeichenfolge | Die Bild-URL | No | |
b64_json | Zeichenfolge | Das base64-codierte Bild | No | |
content_filter_results | dalleContentFilterResults | Informationen zu den Ergebnissen der Inhaltsfilterung | No | |
revised_prompt | Zeichenfolge | Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde | No | |
prompt_filter_results | dalleFilterResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No |
Erweiterungen für Vervollständigungen
Vervollständigungserweiterungen sind nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse.
Chatnachricht
Das Chatnachrichtenobjekt ist nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse.
Sprachsynthese
Ist derzeit nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse. Weitere Informationen finden Sie in der neuesten Vorschauversion dieser Funktion.
Nächste Schritte
Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.