Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.
API-Spezifikationen
Das Verwalten und Interagieren mit Azure OpenAI-Modellen und -Ressourcen ist auf drei primäre API-Oberflächen aufgeteilt:
- Steuerebene
- Datenebene – Erstellung
- Datenebene – Ableitung
Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API verfügt über einen eigenen eindeutigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA)-API-Versionen. Vorschauversionen folgen derzeit einem monatlichen Rhythmus.
Wichtig
Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.
| API | Neueste Vorschauversion | Neueste GA-Version | Spezifikationen | Beschreibung |
|---|---|---|---|---|
| Steuerebene | 2025-07-01-preview |
2025-06-01 |
Spec-Dateien | Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist. |
| Datenebene | v1 preview |
v1 |
Spec-Dateien | Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge. |
Authentifizierung
Azure OpenAI bietet zwei Methoden für die Authentifizierung. Sie können entweder API-Schlüssel oder Microsoft Entra ID verwenden.
API-Schlüsselauthentifizierung: Für diesen Authentifizierungstyp müssen alle API-Anforderungen den API-Schlüssel im
api-keyHTTP-Header enthalten. Die Schnellstartanleitung enthält Anleitungen zum Tätigen von Anrufen mit diesem Authentifizierungstyp.Microsoft Entra ID authentication: Sie können einen API-Aufruf mithilfe eines Microsoft Entra Tokens authentifizieren. Authentifizierungstoken sind in einer Anforderung als
AuthorizationHeader enthalten. Das bereitgestellte Token muss z. BBearer YOUR_AUTH_TOKEN. vorangestelltBearersein. Sie können unsere Anleitung zu Authenticating mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs werden mithilfe des api-version Abfrageparameters versionsgesteuert. Alle Versionen folgen der Datumsstruktur JJJJ-MM-DD. Zum Beispiel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Datenebenen-Ableitung
Der Rest des Artikels behandelt die GA-Freigabe der Azure OpenAI-Datenebenen-Ableitungsspezifikation, 2024-10-21.
Wenn Sie nach Dokumentationen zur neuesten Vorschau-API-Version suchen, lesen Sie die neueste Vorschaudatenebenen-Ableitungs-API.
Abschlüsse
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
URI-Parameter
| Namen | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur Url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | Pfad | Ja | Schnur | Bereitstellungs-ID des Modells, das bereitgestellt wurde. |
| API-Version | Abfrage | Ja | Schnur | API-Version |
Anforderungsheader
| Namen | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| API-Schlüssel | STIMMT | Schnur | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Anforderungstext
Content-Type: application/json
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabeaufforderung | Zeichenfolge oder Matrix | Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert. |
Ja | |
| best_of | Ganzzahl | Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.Bei Verwendung mit n, best_of steuert die Anzahl der Fertigstellungen von Kandidaten und n gibt an, wie viele zurückgegeben werden nsollen . best_ofHinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
Nein | 1 |
| Echo | Boolean | Echo der Eingabeaufforderung zusätzlich zum Abschluss |
Nein | FALSE |
| frequency_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
Nein | 0 |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird. |
Nein | Nichts |
| logprobs | Ganzzahl | Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der fünf höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.Der Maximalwert für logprobs 5. |
Nein | Nichts |
| max_tokens | Ganzzahl | Die maximale Anzahl von Token, die im Abschluss generiert werden können. Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
Nein | 16 |
| N | Ganzzahl | Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen. Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
Nein | 1 |
| presence_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
Nein | 0 |
| Samen | Ganzzahl | Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
Nein | |
| Stoppen | Zeichenfolge oder Matrix | Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
Nein | |
| Stream | Boolean | Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. |
Nein | FALSE |
| Suffix | Schnur | Das Suffix, das nach abschluss des eingefügten Texts kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instruct. |
Nein | Nichts |
| Temperatur | Anzahl | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Nein | 1 |
| top_p | Anzahl | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Nein | 1 |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
Nein |
Antworten
Statuscode: 200
Beschreibung: OK
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | createCompletionResponse | Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nichtstreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt). |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | errorResponse |
Beispiele
Beispiel
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Einbettungen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden kann.
URI-Parameter
| Namen | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur Url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | Pfad | Ja | Schnur | |
| API-Version | Abfrage | Ja | Schnur | API-Version |
Anforderungsheader
| Namen | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| API-Schlüssel | STIMMT | Schnur | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Anforderungstext
Content-Type: application/json
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | Zeichenfolge oder Matrix | Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Um mehrere Eingaben in eine einzelne Anforderung einzubetten, übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays. Die Eingabe darf die maximalen Eingabetoken für das Modell (8.192 Token für text-embedding-ada-002), keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. |
Ja | |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | Nein | |
| input_type | Schnur | Eingabetyp der zu verwendenden Einbettungssuche | Nein | |
| encoding_format | Schnur | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64. Standardwert ist .float |
Nein | |
| Dimensionen | Ganzzahl | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
Nein |
Antworten
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Objekt | Schnur | Ja | ||
| Modell | Schnur | Ja | ||
| Daten | Array | Ja | ||
| Verwendung | Objekt | Ja |
Eigenschaften für die Verwendung
prompt_tokens
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| prompt_tokens | Ganzzahl |
total_tokens
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| total_tokens | Ganzzahl |
Statuscode: 200
Beschreibung: OK
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | Objekt |
Beispiele
Beispiel
Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatabschluss
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Erstellt einen Abschluss für die Chatnachricht
URI-Parameter
| Namen | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur Url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | Pfad | Ja | Schnur | Bereitstellungs-ID des Modells, das bereitgestellt wurde. |
| API-Version | Abfrage | Ja | Schnur | API-Version |
Anforderungsheader
| Namen | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| API-Schlüssel | STIMMT | Schnur | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Anforderungstext
Content-Type: application/json
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Temperatur | Anzahl | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Nein | 1 |
| top_p | Anzahl | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Nein | 1 |
| Stream | Boolean | Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. |
Nein | FALSE |
| Stoppen | Zeichenfolge oder Matrix | Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. |
Nein | |
| max_tokens | Ganzzahl | Die maximale Anzahl von Token, die im Chatabschluss generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt. |
Nein | |
| max_completion_tokens | Ganzzahl | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | Nein | |
| presence_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
Nein | 0 |
| frequency_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
Nein | 0 |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. |
Nein | Nichts |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
Nein | |
| Nachrichten | Array | Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. | Ja | |
| data_sources | Array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
Nein | |
| logprobs | Boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. |
Nein | FALSE |
| top_logprobs | Ganzzahl | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. |
Nein | |
| N | Ganzzahl | Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. |
Nein | 1 |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | STIMMT |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantiert, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Nein | |
| Samen | Ganzzahl | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
Nein | |
| Werkzeuge | Array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. |
Nein | |
| tool_choice | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
Nein | |
| function_call | string or chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.none ist der Standardwert, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
Nein | |
| Funktionen | Array | Veraltet zugunsten von tools.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
Nein |
Antworten
Statuscode: 200
Beschreibung: OK
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | createChatCompletionResponse oder createChatCompletionStreamResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | errorResponse |
Beispiele
Beispiel
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt einen Abschluss basierend auf Azure Suchdaten und vom System zugewiesener verwalteter Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt einen Abschluss basierend auf Azure Suchvektordaten, vorheriger Assistant-Nachricht und der vom Benutzer zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt einen Abschluss für die bereitgestellte Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen - Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transkribiert Audio in die Eingabesprache.
URI-Parameter
| Namen | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur Url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | Pfad | Ja | Schnur | Bereitstellungs-ID der Sprache im Textmodell. Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| API-Version | Abfrage | Ja | Schnur | API-Version |
Anforderungsheader
| Namen | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| API-Schlüssel | STIMMT | Schnur | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Anforderungstext
Content-Type: multipart/form-data
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Datei | Schnur | Das zu transkribierende Audiodateiobjekt. | Ja | |
| Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | Nein | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | Nein | |
| Temperatur | Anzahl | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | Nein | 0 |
| Sprache | Schnur | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. | Nein |
Antworten
Statuscode: 200
Beschreibung: OK
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | audioResponse oder audioVerboseResponse | |
| Text/Nur-Text | Schnur | Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war). |
Beispiele
Beispiel
Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Beispiel
Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen - Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transkribiert und übersetzt Eingabeaudio in englischen Text.
URI-Parameter
| Namen | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur Url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | Pfad | Ja | Schnur | Bereitstellungs-ID des Flüstermodells, das bereitgestellt wurde. Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| API-Version | Abfrage | Ja | Schnur | API-Version |
Anforderungsheader
| Namen | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| API-Schlüssel | STIMMT | Schnur | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Anforderungstext
Content-Type: multipart/form-data
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Datei | Schnur | Die zu übersetzende Audiodatei. | Ja | |
| Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. | Nein | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | Nein | |
| Temperatur | Anzahl | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | Nein | 0 |
Antworten
Statuscode: 200
Beschreibung: OK
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | audioResponse oder audioVerboseResponse | |
| Text/Nur-Text | Schnur | Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war). |
Beispiele
Beispiel
Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Beispiel
Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Bildgenerierung
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Generiert einen Batch von Bildern aus einer Textbeschriftung für eine bestimmte Dall-e-Modellbereitstellung.
URI-Parameter
| Namen | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur Url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | Pfad | Ja | Schnur | Bereitstellungs-ID des bereitgestellten Dall-e-Modells. |
| API-Version | Abfrage | Ja | Schnur | API-Version |
Anforderungsheader
| Namen | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| API-Schlüssel | STIMMT | Schnur | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Anforderungstext
Content-Type: application/json
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabeaufforderung | Schnur | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. | Ja | |
| N | Ganzzahl | Die Anzahl der zu generierenden Bilder. | Nein | 1 |
| Größe | Imagesize | Die Größe der generierten Bilder. | Nein | 1024 x 1024 |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | Nein | Url |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | Nein | |
| Qualität | imageQuality | Die Qualität des Bilds, das generiert wird. | Nein | Standard |
| Stil | imageStyle | Die Formatvorlage der generierten Bilder. | Nein | Lebendige |
Antworten
Statuscode: 200
Beschreibung: Ok
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/json | dalleErrorResponse |
Beispiele
Beispiel
Erstellt Bilder mit einer Eingabeaufforderung.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Komponenten
errorResponse
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Fehler | Fehler | Nein |
errorBase
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Code | Schnur | Nein | ||
| Nachricht | Schnur | Nein |
Fehler
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Param | Schnur | Nein | ||
| Typ | Schnur | Nein | ||
| inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | Nein |
innerError
Innerer Fehler mit zusätzlichen Details.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | Nein | |
| content_filter_results | contentFilterPromptResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. | Nein |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt.
Beschreibung: Fehlercodes für das innere Fehlerobjekt.
Typ: Zeichenfolge
Standard:
Enumerationsname: InnerErrorCode
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| ResponsibleAIPolicyViolation | Die Eingabeaufforderung verletzte eine der weiteren Inhaltsfilterregeln. |
dalleErrorResponse
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Fehler | dalleError | Nein |
dalleError
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Param | Schnur | Nein | ||
| Typ | Schnur | Nein | ||
| inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | Nein |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | Nein | |
| content_filter_results | dalleFilterResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. | Nein | |
| revised_prompt | Schnur | Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. | Nein |
contentFilterResultBase
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Gefiltert | Boolean | Ja |
contentFilterSeverityResult
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Gefiltert | Boolean | Ja | ||
| Schweregrad | Schnur | Nein |
contentFilterDetectedResult
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Gefiltert | Boolean | Ja | ||
| Erkannt | Boolean | Nein |
contentFilterDetectedWithCitationResult
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Zitat | Objekt | Nein |
Eigenschaften für Zitate
URL
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| URL | Schnur |
Lizenz
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Lizenz | Schnur |
contentFilterResultsBase
Informationen zu den Ergebnissen der Inhaltsfilterung.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Sexuelle | contentFilterSeverityResult | Nein | ||
| Gewalt | contentFilterSeverityResult | Nein | ||
| Hass | contentFilterSeverityResult | Nein | ||
| self_harm | contentFilterSeverityResult | Nein | ||
| Profanität | contentFilterDetectedResult | Nein | ||
| Fehler | errorBase | Nein |
contentFilterPromptResults
Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Sexuelle | contentFilterSeverityResult | Nein | ||
| Gewalt | contentFilterSeverityResult | Nein | ||
| Hass | contentFilterSeverityResult | Nein | ||
| self_harm | contentFilterSeverityResult | Nein | ||
| Profanität | contentFilterDetectedResult | Nein | ||
| Fehler | errorBase | Nein | ||
| Jailbreak | contentFilterDetectedResult | Nein |
contentFilterChoiceResults
Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Text und Profanität von Drittanbietern, sofern er erkannt wurde und ob er gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Sexuelle | contentFilterSeverityResult | Nein | ||
| Gewalt | contentFilterSeverityResult | Nein | ||
| Hass | contentFilterSeverityResult | Nein | ||
| self_harm | contentFilterSeverityResult | Nein | ||
| Profanität | contentFilterDetectedResult | Nein | ||
| Fehler | errorBase | Nein | ||
| protected_material_text | contentFilterDetectedResult | Nein | ||
| protected_material_code | contentFilterDetectedWithCitationResult | Nein |
promptFilterResult
Ergebnisse der Inhaltsfilterung für eine einzelne Eingabeaufforderung in der Anforderung.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| prompt_index | Ganzzahl | Nein | ||
| content_filter_results | contentFilterPromptResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. | Nein |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen.
Für diese Komponente sind keine Eigenschaften definiert.
dalleContentFilterResults
Informationen zu den Ergebnissen der Inhaltsfilterung.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Sexuelle | contentFilterSeverityResult | Nein | ||
| Gewalt | contentFilterSeverityResult | Nein | ||
| Hass | contentFilterSeverityResult | Nein | ||
| self_harm | contentFilterSeverityResult | Nein |
dalleFilterResults
Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Sexuelle | contentFilterSeverityResult | Nein | ||
| Gewalt | contentFilterSeverityResult | Nein | ||
| Hass | contentFilterSeverityResult | Nein | ||
| self_harm | contentFilterSeverityResult | Nein | ||
| Profanität | contentFilterDetectedResult | Nein | ||
| Jailbreak | contentFilterDetectedResult | Nein |
chatCompletionsRequestCommon
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Temperatur | Anzahl | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Nein | 1 |
| top_p | Anzahl | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Nein | 1 |
| Stream | Boolean | Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. |
Nein | FALSE |
| Stoppen | Zeichenfolge oder Matrix | Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. | Nein | |
| max_tokens | Ganzzahl | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig lautet die Anzahl der Token, die das Modell zurückgeben kann (4096 – Eingabeaufforderungstoken). Dieser Wert ist nun zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel. |
Nein | 4096 |
| max_completion_tokens | Ganzzahl | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | Nein | |
| presence_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. | Nein | 0 |
| frequency_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. | Nein | 0 |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. | Nein | |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. | Nein |
createCompletionRequest
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabeaufforderung | Zeichenfolge oder Matrix | Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert. |
Ja | |
| best_of | Ganzzahl | Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.Bei Verwendung mit n, best_of steuert die Anzahl der Fertigstellungen von Kandidaten und n gibt an, wie viele zurückgegeben werden nsollen . best_ofHinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
Nein | 1 |
| Echo | Boolean | Echo der Eingabeaufforderung zusätzlich zum Abschluss |
Nein | FALSE |
| frequency_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
Nein | 0 |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird. |
Nein | Nichts |
| logprobs | Ganzzahl | Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der fünf höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.Der Maximalwert für logprobs 5. |
Nein | Nichts |
| max_tokens | Ganzzahl | Die maximale Anzahl von Token, die im Abschluss generiert werden können. Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
Nein | 16 |
| N | Ganzzahl | Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen. Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
Nein | 1 |
| presence_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
Nein | 0 |
| Samen | Ganzzahl | Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
Nein | |
| Stoppen | Zeichenfolge oder Matrix | Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
Nein | |
| Stream | Boolean | Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. |
Nein | FALSE |
| Suffix | Schnur | Das Suffix, das nach abschluss des eingefügten Texts kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instruct. |
Nein | Nichts |
| Temperatur | Anzahl | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Nein | 1 |
| top_p | Anzahl | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Nein | 1 |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
Nein |
createCompletionResponse
Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nichtstreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Id | Schnur | Ein eindeutiger Bezeichner für den Abschluss. | Ja | |
| Entscheidungen | Array | Die Liste der Abschlussoptionen, die das Modell für die Eingabeaufforderung generiert hat. | Ja | |
| Erstellt | Ganzzahl | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Abschlusses. | Ja | |
| Modell | Schnur | Das Modell, das für den Abschluss verwendet wird. | Ja | |
| prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. | Nein | |
| system_fingerprint | Schnur | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
Nein | |
| Objekt | Enum | Der Objekttyp, der immer "text_completion" ist Mögliche Werte: text_completion |
Ja | |
| Verwendung | completionUsage | Nutzungsstatistiken für die Abschlussanforderung. | Nein |
createChatCompletionRequest
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Temperatur | Anzahl | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Nein | 1 |
| top_p | Anzahl | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Nein | 1 |
| Stream | Boolean | Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. |
Nein | FALSE |
| Stoppen | Zeichenfolge oder Matrix | Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. |
Nein | |
| max_tokens | Ganzzahl | Die maximale Anzahl von Token, die im Chatabschluss generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt. |
Nein | |
| max_completion_tokens | Ganzzahl | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | Nein | |
| presence_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
Nein | 0 |
| frequency_penalty | Anzahl | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
Nein | 0 |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. |
Nein | Nichts |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
Nein | |
| Nachrichten | Array | Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. | Ja | |
| data_sources | Array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
Nein | |
| logprobs | Boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. |
Nein | FALSE |
| top_logprobs | Ganzzahl | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. |
Nein | |
| N | Ganzzahl | Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. |
Nein | 1 |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | STIMMT |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantiert, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Nein | |
| Samen | Ganzzahl | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
Nein | |
| Werkzeuge | Array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. |
Nein | |
| tool_choice | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
Nein | |
| function_call | string or chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.none ist der Standardwert, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
Nein | |
| Funktionen | Array | Veraltet zugunsten von tools.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
Nein |
chatCompletionFunctions
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | Nein | |
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Ja | |
| Parameter | FunctionParameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format. Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert. |
Nein |
chatCompletionFunctionCallOption
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. | Ja |
chatCompletionRequestMessage
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestSystemMessage
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Matrix | Der Inhalt der Systemnachricht. | Ja | |
| Rolle | Enum | Die Rolle des Autors von Nachrichten in diesem Fall system.Mögliche Werte: System |
Ja | |
| Namen | Schnur | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein |
chatCompletionRequestUserMessage
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Matrix | Der Inhalt der Benutzernachricht. |
Ja | |
| Rolle | Enum | Die Rolle des Autors von Nachrichten in diesem Fall user.Mögliche Werte: Benutzer |
Ja | |
| Namen | Schnur | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein |
chatCompletionRequestAssistantMessage
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Matrix | Der Inhalt der Assistentennachricht. Erforderlich, es sei denn tool_calls , oder function_call es wird angegeben. |
Nein | |
| Weigerung | Schnur | Die Ablehnungsnachricht des Assistenten. | Nein | |
| Rolle | Enum | Die Rolle des Autors von Nachrichten in diesem Fall assistant.Mögliche Werte: Assistent |
Ja | |
| Namen | Schnur | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| tool_calls | chatCompletionMessageToolCalls | Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. | Nein | |
| function_call | Objekt | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein |
Eigenschaften für function_call
Argumente
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. |
Namen
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. |
chatCompletionRequestToolMessage
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Rolle | Enum | Die Rolle des Autors von Nachrichten in diesem Fall tool.Mögliche Werte: Tool |
Ja | |
| Inhalt | Zeichenfolge oder Matrix | Der Inhalt der Toolnachricht. | Ja | |
| tool_call_id | Schnur | Toolaufruf, auf den diese Nachricht reagiert. | Ja |
chatCompletionRequestFunctionMessage
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Rolle | Enum | Die Rolle des Autors von Nachrichten in diesem Fall function.Mögliche Werte: Funktion |
Ja | |
| Inhalt | Schnur | Der Inhalt der Funktionsmeldung. | Ja | |
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. | Ja |
chatCompletionRequestSystemMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestUserMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestAssistantMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestToolMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestMessageContentPartText
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des Inhaltsteils. Mögliche Werte: Text |
Ja | |
| Text | Schnur | Der Textinhalt. | Ja |
chatCompletionRequestMessageContentPartImage
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des Inhaltsteils. Mögliche Werte: image_url |
Ja | |
| image_url | Objekt | Ja |
Eigenschaften für image_url
Url
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Url | Schnur | Entweder eine URL des Bilds oder die base64-codierten Bilddaten. |
Detail
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Detail | Schnur | Gibt die Detailebene des Bilds an. Weitere Informationen finden Sie im Vision-Leitfaden. | Auto |
chatCompletionRequestMessageContentPartRefusal
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des Inhaltsteils. Mögliche Werte: Ablehnung |
Ja | |
| Weigerung | Schnur | Die vom Modell generierte Ablehnungsmeldung. | Ja |
azureChatExtensionConfiguration
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet. Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja |
azureChatExtensionType
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Description: Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Typ: Zeichenfolge
Standard:
Enumerationsname: AzureChatExtensionType
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| azure_search | Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar. |
| azure_cosmos_db | Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar. |
azureSearchChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Suche, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet. Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
| Parameter | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden. | Nein |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Authentifizierung | onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions | Ja | ||
| top_n_documents | Ganzzahl | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | Nein | |
| in_scope | Boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | Nein | |
| Strenge | Ganzzahl | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | Nein | |
| role_information | Schnur | Geben Sie dem Modell Anweisungen dazu, wie es sich verhalten soll, und auf jeden Kontext, auf den es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihnen mitteilen, wie Sie Antworten formatieren. Dafür gibt es ein Tokenlimit von 100, und es zählt gegen den gesamten Tokengrenzwert. | Nein | |
| Endpunkt | Schnur | Der absolute Endpunktpfad für die zu verwendende Azure Suchressource. | Ja | |
| Index_name | Schnur | Der Name des Indexes, der in der referenzierten Azure Suchressource als verfügbar verwendet werden soll. | Ja | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Suchressource. | Nein | |
| query_type | azureSearchQueryType | Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll. | Nein | |
| semantic_configuration | Schnur | Die zusätzliche semantische Konfiguration für die Abfrage. | Nein | |
| Filter | Schnur | Suchfilter. | Nein | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Nein |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Suchressource.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| title_field | Schnur | Der Name des Indexfelds, das als Titel verwendet werden soll. | Nein | |
| url_field | Schnur | Der Name des Indexfelds, das als URL verwendet werden soll. | Nein | |
| filepath_field | Schnur | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | Nein | |
| content_fields | Array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Nein | |
| content_fields_separator | Schnur | Das Trennmuster, das Inhaltsfelder verwenden sollen. | Nein | |
| vector_fields | Array | Die Namen von Feldern, die Vektordaten darstellen. | Nein |
azureSearchQueryType
Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.
Description: Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.
Typ: Zeichenfolge
Standard:
Enumerationsname: AzureSearchQueryType
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| Einfach | Stellt den Standardmäßigen einfachen Abfrageparser dar. |
| Semantische | Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar. |
| Vektor | Stellt die Vektorsuche über berechnete Daten dar. |
| vector_simple_hybrid | Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar. |
| vector_semantic_hybrid | Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar. |
azureCosmosDBChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet. Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
| Parameter | azureCosmosDBChatExtensionParameters | Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat Extensions verwendet werden sollen, wenn Azure Cosmos DB für MongoDB vCore. |
Nein |
azureCosmosDBChatExtensionParameters
Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat Extensions verwendet werden sollen, wenn Azure Cosmos DB für MongoDB vCore verwendet werden.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Authentifizierung | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Verbindungszeichenfolge. | Ja | |
| top_n_documents | Ganzzahl | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | Nein | |
| in_scope | Boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | Nein | |
| Strenge | Ganzzahl | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | Nein | |
| role_information | Schnur | Geben Sie dem Modell Anweisungen dazu, wie es sich verhalten soll, und auf jeden Kontext, auf den es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihnen mitteilen, wie Sie Antworten formatieren. Dafür gibt es ein Tokenlimit von 100, und es zählt gegen den gesamten Tokengrenzwert. | Nein | |
| Database_name | Schnur | Der Name der MongoDB-vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll. | Ja | |
| container_name | Schnur | Der Name des Azure Cosmos DB-Ressourcencontainers. | Ja | |
| Index_name | Schnur | Der Name des MongoDB-vCore-Indexes, der mit Azure Cosmos DB verwendet werden soll. | Ja | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB Ressource. | Ja | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Ja |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB Ressource.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| title_field | Schnur | Der Name des Indexfelds, das als Titel verwendet werden soll. | Nein | |
| url_field | Schnur | Der Name des Indexfelds, das als URL verwendet werden soll. | Nein | |
| filepath_field | Schnur | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | Nein | |
| content_fields | Array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Ja | |
| content_fields_separator | Schnur | Das Trennmuster, das Inhaltsfelder verwenden sollen. | Nein | |
| vector_fields | Array | Die Namen von Feldern, die Vektordaten darstellen. | Ja |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Ja |
onYourDataAuthenticationType
Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.
Description: Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.
Typ: Zeichenfolge
Standard:
Enumerationsname: OnYourDataAuthenticationType
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| api_key | Authentifizierung über API-Schlüssel. |
| connection_string | Authentifizierung über Verbindungszeichenfolge. |
| system_assigned_managed_identity | Authentifizierung über vom System zugewiesene verwaltete Identität. |
| user_assigned_managed_identity | Authentifizierung über vom Benutzer zugewiesene verwaltete Identität. |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Ja | |
| Schlüssel | Schnur | Der FÜR die Authentifizierung zu verwendende API-Schlüssel. | Nein |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Verbindungszeichenfolge.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Ja | |
| connection_string | Schnur | Die für die Authentifizierung zu verwendende Verbindungszeichenfolge. | Nein |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Ja |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Ja | |
| managed_identity_resource_id | Schnur | Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. | Nein |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit Vektorsuche. |
Ja |
onYourDataVectorizationSourceType
Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data verwendet werden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren.
Description: Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
Vektorsuche.
Typ: Zeichenfolge
Standard:
Enumerationsname: OnYourDataVectorizationSourceType
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| Endpunkt | Stellt die Vektorisierung dar, die von öffentlichen Dienstaufrufen an ein Azure OpenAI-Einbettungsmodell ausgeführt wird. |
| deployment_name | Stellt einen zu verwendenden Ada-Modellbereitstellungsnamen dar. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch Vektoren aktiviert werden. auch in privaten Netzwerken suchen. |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit Vektorsuche. |
Ja | |
| deployment_name | Schnur | Gibt den Namen der Modellbereitstellung an, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch die Vektorsuche auch in privaten Netzwerken ermöglicht wird. | Nein |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen basiert.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit Vektorsuche. |
Ja | |
| Authentifizierung | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. | Nein | |
| Endpunkt | Schnur | Gibt den Endpunkt an, der für die Vektorisierung verwendet werden soll. Dieser Endpunkt muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird dieser Endpunkt über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, der die Vektorsuche sogar in privaten Netzwerken ermöglicht. | Nein |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung aufgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Zitate | Array | Das Abrufergebnis der Datenquelle, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. | Nein | |
| Absicht | Schnur | Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um an die nächste Aufgabe zu übergeben, um den Kontext zu übernehmen. | Nein |
Zitat
Zitatinformationen für eine Chatabschlussantwortnachricht.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Schnur | Der Inhalt des Zitats. | Ja | |
| Titel | Schnur | Der Titel des Zitats. | Nein | |
| Url | Schnur | Die URL des Zitats. | Nein | |
| Filepath | Schnur | Der Dateipfad des Zitats. | Nein | |
| chunk_id | Schnur | Die Block-ID des Zitats. | Nein |
chatCompletionMessageToolCall
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Id | Schnur | Die ID des Toolaufrufs. | Ja | |
| Typ | toolCallType | Der Typ des Toolaufrufs in diesem Fall function. |
Ja | |
| Funktion | Objekt | Die Funktion, die das Modell aufgerufen hat. | Ja |
Eigenschaften für Funktion
Namen
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. |
Argumente
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. |
toolCallType
Der Typ des Toolaufrufs in diesem Fall function.
Beschreibung: Der Typ des Toolaufrufs in diesem Fall function.
Typ: Zeichenfolge
Standard:
Enumerationsname: ToolCallType
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| Funktion | Der Toolaufruftyp ist Funktion. |
chatCompletionRequestMessageTool
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| tool_call_id | Schnur | Toolaufruf, auf den diese Nachricht reagiert. | Nein | |
| Inhalt | Schnur | Der Inhalt der Nachricht. | Nein |
chatCompletionRequestMessageFunction
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Rolle | Enum | Die Rolle des Autors von Nachrichten in diesem Fall function.Mögliche Werte: Funktion |
Nein | |
| Namen | Schnur | Der Inhalt der Nachricht. | Nein | |
| Inhalt | Schnur | Der Inhalt der Nachricht. | Nein |
createChatCompletionResponse
Stellt eine chat-Abschlussantwort dar, die nach Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Id | Schnur | Ein eindeutiger Bezeichner für den Chatabschluss. | Ja | |
| prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. | Nein | |
| Entscheidungen | Array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere sein, wenn n größer als 1 ist. |
Ja | |
| Erstellt | Ganzzahl | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. | Ja | |
| Modell | Schnur | Das Modell, das für den Chatabschluss verwendet wird. | Ja | |
| system_fingerprint | Schnur | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
Nein | |
| Objekt | Enum | Der Objekttyp, der immer chat.completionist.Mögliche Werte: chat.completion |
Ja | |
| Verwendung | completionUsage | Nutzungsstatistiken für die Abschlussanforderung. | Nein |
createChatCompletionStreamResponse
Stellt einen gestreamten Teil einer Chat-Abschlussantwort dar, die nach Dem Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Id | Schnur | Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. | Ja | |
| Entscheidungen | Array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist. |
Ja | |
| Erstellt | Ganzzahl | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. | Ja | |
| Modell | Schnur | Das Modell, das den Abschluss generiert. | Ja | |
| system_fingerprint | Schnur | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
Nein | |
| Objekt | Enum | Der Objekttyp, der immer chat.completion.chunkist.Mögliche Werte: chat.completion.chunk |
Ja |
chatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Schnur | Der Inhalt der Blocknachricht. | Nein | |
| function_call | Objekt | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein | |
| tool_calls | Array | Nein | ||
| Rolle | Enum | Die Rolle des Autors dieser Nachricht. Mögliche Werte: System, Benutzer, Assistent, Tool |
Nein | |
| Weigerung | Schnur | Die vom Modell generierte Ablehnungsmeldung. | Nein |
Eigenschaften für function_call
Argumente
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. |
Namen
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. |
chatCompletionMessageToolCallChunk
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Index | Ganzzahl | Ja | ||
| Id | Schnur | Die ID des Toolaufrufs. | Nein | |
| Typ | Enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: Funktion |
Nein | |
| Funktion | Objekt | Nein |
Eigenschaften für Funktion
Namen
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. |
Argumente
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. |
chatCompletionStreamOptions
Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| include_usage | Boolean | Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert. |
Nein |
chatCompletionChoiceLogProbs
Protokoll-Wahrscheinlichkeitsinformationen für die Auswahl.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Array | Eine Liste der Nachrichteninhaltstoken mit Protokollwahrscheinlichkeitsinformationen. | Ja | |
| Weigerung | Array | Eine Liste der Nachrichtenverweigerungstoken mit Protokollwahrscheinlichkeitsinformationen. | Nein |
chatCompletionTokenLogprob
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Token | Schnur | Das Token. | Ja | |
| logprob | Anzahl | Die Protokollwahrscheinlichkeit dieses Tokens. | Ja | |
| Bytes | Array | Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. |
Ja | |
| top_logprobs | Array | Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. |
Ja |
chatCompletionResponseMessage
Eine vom Modell generierte Chatabschlussnachricht.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Rolle | chatCompletionResponseMessageRole | Die Rolle des Autors der Antwortnachricht. | Ja | |
| Weigerung | Schnur | Die vom Modell generierte Ablehnungsmeldung. | Ja | |
| Inhalt | Schnur | Der Inhalt der Nachricht. | Ja | |
| tool_calls | Array | Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. | Nein | |
| function_call | chatCompletionFunctionCall | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein | |
| Kontext | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen beteiligt sind in der Generierung einer entsprechenden Chatabschlussantwort. Diese Kontextinformationen werden nur ausgefüllt, wenn Verwenden einer Azure OpenAI-Anforderung, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist. |
Nein |
chatCompletionResponseMessageRole
Die Rolle des Autors der Antwortnachricht.
Beschreibung: Die Rolle des Autors der Antwortnachricht.
Typ: Zeichenfolge
Standard:
Enumerationswerte:
- Assistent
chatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Diese Komponente kann eine der folgenden Sein:
chatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: Funktion |
Ja | |
| Funktion | Objekt | Ja |
Eigenschaften für Funktion
Namen
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. |
ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionMessageToolCalls
Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionFunctionCall
Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. | Ja | |
| Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | Ja |
completionUsage
Nutzungsstatistiken für die Abschlussanforderung.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| prompt_tokens | Ganzzahl | Anzahl der Token in der Eingabeaufforderung. | Ja | |
| completion_tokens | Ganzzahl | Anzahl der Token im generierten Abschluss. | Ja | |
| total_tokens | Ganzzahl | Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). | Ja | |
| completion_tokens_details | Objekt | Aufschlüsselung der in einem Abschluss verwendeten Token. | Nein |
Eigenschaften für completion_tokens_details
reasoning_tokens
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| reasoning_tokens | Ganzzahl | Vom Modell generierte Token zur Begründung. |
chatCompletionTool
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: Funktion |
Ja | |
| Funktion | Functionobject | Ja |
FunctionParameters
Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.
Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
Für diese Komponente sind keine Eigenschaften definiert.
Functionobject
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | Nein | |
| Namen | Schnur | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Ja | |
| Parameter | FunctionParameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format. Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert. |
Nein | |
| Streng | Boolean | Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
Nein | FALSE |
ResponseFormatText
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des zu definierenden Antwortformats: textMögliche Werte: Text |
Ja |
ResponseFormatJsonObject
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des zu definierenden Antwortformats: json_objectMögliche Werte: json_object |
Ja |
ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseFormatJsonSchema
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Enum | Der Typ des zu definierenden Antwortformats: json_schemaMögliche Werte: json_schema |
Ja | |
| json_schema | Objekt | Ja |
Eigenschaften für json_schema
Beschreibung
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. |
Namen
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Namen | Schnur | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. |
Schema
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. |
Streng
| Namen | Typ | Beschreibung | Standard |
|---|---|---|---|
| Streng | Boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
FALSE |
chatCompletionChoiceCommon
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Index | Ganzzahl | Nein | ||
| finish_reason | Schnur | Nein |
createTranslationRequest
Übersetzungsanforderung.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Datei | Schnur | Die zu übersetzende Audiodatei. | Ja | |
| Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. | Nein | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | Nein | |
| Temperatur | Anzahl | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | Nein | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format json war
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Übersetzter oder transkribierter Text. | Ja |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Übersetzter oder transkribierter Text. | Ja | |
| Aufgabe | Schnur | Typ der Audioaufgabe. | Nein | |
| Sprache | Schnur | Sprache. | Nein | |
| Dauer | Anzahl | Dauer. | Nein | |
| Segmente | Array | Nein |
audioResponseFormat
Definiert das Format der Ausgabe.
Beschreibung: Definiert das Format der Ausgabe.
Typ: Zeichenfolge
Standard:
Enumerationswerte:
- Json
- Text
- Srt
- verbose_json
- Vtt
createTranscriptionRequest
Transkriptionsanforderung.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Datei | Schnur | Das zu transkribierende Audiodateiobjekt. | Ja | |
| Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | Nein | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | Nein | |
| Temperatur | Anzahl | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | Nein | 0 |
| Sprache | Schnur | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. | Nein |
audioSegment
Transkription oder Übersetzungssegment.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Id | Ganzzahl | Segmentbezeichner. | Nein | |
| Suchen | Anzahl | Offset des Segments. | Nein | |
| Starten | Anzahl | Segmentanfangsoffset. | Nein | |
| Ende | Anzahl | Segmentende-Offset. | Nein | |
| Text | Schnur | Segmentierungstext. | Nein | |
| Token | Array | Token des Texts. | Nein | |
| Temperatur | Anzahl | Temperatur. | Nein | |
| avg_logprob | Anzahl | Durchschnittliche Protokollwahrscheinlichkeit. | Nein | |
| compression_ratio | Anzahl | Kompressionsrate. | Nein | |
| no_speech_prob | Anzahl | Wahrscheinlichkeit von no speech. |
Nein |
imageQuality
Die Qualität des Bilds, das generiert wird.
Beschreibung: Die Qualität des Bilds, das generiert wird.
Typ: Zeichenfolge
Standard: Standard
Enumerationsname: Qualität
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| Standard | Standardqualität schafft Bilder mit Standardqualität. |
| Hd | Hd-Qualität schafft Bilder mit feineren Details und größerer Konsistenz im gesamten Bild. |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden.
Typ: Zeichenfolge
Standard: URL
Enumerationsname: ImagesResponseFormat
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| Url | Die URL, die temporären Zugriff zum Herunterladen der generierten Bilder bietet. |
| b64_json | Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben. |
Imagesize
Die Größe der generierten Bilder.
Beschreibung: Die Größe der generierten Bilder.
Typ: Zeichenfolge
Standard: 1024x1024
Enumerationsname: Größe
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| 1792x1024 | Die gewünschte Größe des generierten Bilds beträgt 1792 x 1024 Pixel. |
| 1024 x 1792 | Die gewünschte Größe des generierten Bilds beträgt 1024 x 1792 Pixel. |
| 1024 x 1024 | Die gewünschte Größe des generierten Bilds beträgt 1024 x 1024 Pixel. |
imageStyle
Die Formatvorlage der generierten Bilder.
Beschreibung: Die Formatvorlage der generierten Bilder.
Typ: Zeichenfolge
Standard: lebendig
Enumerationsname: Formatvorlage
Enumerationswerte:
| Wert | Beschreibung |
|---|---|
| Lebendige | Lebendig erzeugt Bilder, die hyperrealistisch und dramatisch sind. |
| Natürliche | Natürlich erzeugt Bilder, die natürlicher und weniger hyperrealistisch sind. |
imageGenerationsRequest
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabeaufforderung | Schnur | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. | Ja | |
| N | Ganzzahl | Die Anzahl der zu generierenden Bilder. | Nein | 1 |
| Größe | Imagesize | Die Größe der generierten Bilder. | Nein | 1024 x 1024 |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | Nein | Url |
| Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | Nein | |
| Qualität | imageQuality | Die Qualität des Bilds, das generiert wird. | Nein | Standard |
| Stil | imageStyle | Die Formatvorlage der generierten Bilder. | Nein | Lebendige |
generateImagesResponse
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Erstellt | Ganzzahl | Der Unix-Zeitstempel, als der Vorgang erstellt wurde. | Ja | |
| Daten | Array | Die Ergebnisdaten des Vorgangs, falls erfolgreich | Ja |
imageResult
Die Bild-URL oder das codierte Bild bei erfolgreicher Ausführung und andernfalls ein Fehler.
| Namen | Typ | Beschreibung | Erforderlich | Standard |
|---|---|---|---|---|
| Url | Schnur | Die Bild-URL. | Nein | |
| b64_json | Schnur | Das base64-codierte Bild | Nein | |
| content_filter_results | dalleContentFilterResults | Informationen zu den Ergebnissen der Inhaltsfilterung. | Nein | |
| revised_prompt | Schnur | Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. | Nein | |
| prompt_filter_results | dalleFilterResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. | Nein |
Fertigstellungserweiterungen
Fertigstellungserweiterungen sind nicht Teil der neuesten GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation.
Chatmessage
Das Chatnachrichtenobjekt ist nicht Teil der neuesten GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation.
Text in Sprache (Vorschau)
Ist derzeit nicht Teil der neuesten Azure OpenAI GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation. Weitere Informationen finden Sie in der neuesten version preview version für diese Funktion.
Nächste Schritte
Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die modelle underlying that power Azure OpenAI.