Get Chat Completions - Get Chat Completions
Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab.
Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird. Die Methode führt einen REST-API-Aufruf an die /chat/completions Route auf dem angegebenen Endpunkt aus.
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
URI-Parameter
| Name | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
resource
|
path | True |
string |
Der Azure AI Services-Ressourcenname, z. B. "my-resource" |
|
api-version
|
query | True |
string minLength: 1 |
Die API-Version, die für diesen Vorgang verwendet werden soll. |
Anforderungsheader
| Name | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| extra-parameters |
Steuert, was geschieht, wenn zusätzliche Parameter, die von der REST-API nicht definiert sind, in der JSON-Anforderungsnutzlast übergeben werden.
Dadurch wird der HTTP-Anforderungsheader |
Anforderungstext
| Name | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| messages | True | ChatRequestMessage[]: |
Die Sammlung von Kontextnachrichten, die dieser Chatanfrage zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen für das Verhalten des Assistenten bereitstellt, gefolgt von abwechselnden Nachrichten zwischen den Rollen "Benutzer" und "Assistent". |
| frequency_penalty |
number (float) minimum: -2maximum: 2 |
Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer kumulativen Häufigkeit im generierten Text angezeigt werden. Positive Werte führen dazu, dass Token weniger wahrscheinlich erscheinen, wenn ihre Häufigkeit zunimmt und die Wahrscheinlichkeit verringert wird, dass das Modell die gleichen Anweisungen wiederholt. Der unterstützte Bereich ist [-2, 2]. |
|
| max_tokens |
integer (int32) minimum: 0 |
Die maximale Anzahl der zu generierenden Token. |
|
| modalities |
Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf. Die Standardmodalitäten sind |
||
| model |
string |
ID des zu verwendenden spezifischen KI-Modells, wenn mehrere Modelle auf dem Endpunkt verfügbar sind. |
|
| presence_penalty |
number (float) minimum: -2maximum: 2 |
Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer vorhandenen Anwesenheit im generierten Text angezeigt werden. Positive Werte machen Token weniger wahrscheinlich, wenn sie bereits vorhanden sind, und erhöhen die Wahrscheinlichkeit, dass das Modell neue Themen ausgeben kann. Der unterstützte Bereich ist [-2, 2]. |
|
| response_format | ChatCompletionsResponseFormat: |
Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Die Einstellung auf Die Einstellung auf
Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt möglicherweise teilweise abgeschnitten wird, wenn |
|
| seed |
integer (int64) |
Wenn angegeben, versucht das System, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben Ausgangswert und denselben Parametern dasselbe Ergebnis zurückgeben sollten. Determinismus ist nicht garantiert. |
|
| stop |
string[] |
Eine Sammlung von Textsequenzen, die die Generierung beenden. |
|
| stream |
boolean |
Ein Wert, der angibt, ob Chatabschlusse für diese Anforderung gestreamt werden sollen. |
|
| temperature |
number (float) minimum: 0maximum: 1 |
Die Samplingtemperatur, die die scheinbare Kreativität generierter Fertigstellungen steuert. Höhere Werte machen die Ausgabe zufälliger, während niedrigere Werte Die Ergebnisse fokussierter und deterministisch machen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1]. |
|
| tool_choice |
Wenn angegeben, konfiguriert das Modell, welche der bereitgestellten Tools für die Antwort auf Chatabschlusse verwendet werden können. |
||
| tools |
Eine Liste der Tools, die vom Modell aufgerufen werden können. Derzeit werden nur Funktionen als Tool unterstützt. Das Modell kann mit einer Funktionsaufrufanforderung antworten und die Eingabeargumente im JSON-Format für diese Funktion bereitstellen. |
||
| top_p |
number (float) minimum: 0maximum: 1 |
Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird. Dieser Wert bewirkt, dass das Modell die Ergebnisse von Token mit der bereitgestellten Wahrscheinlichkeitsmasse berücksichtigt. Beispielsweise führt ein Wert von 0,15 nur zu den Token, die die obersten 15% der Wahrscheinlichkeitsmasse umfassen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1]. |
Antworten
| Name | Typ | Beschreibung |
|---|---|---|
| 200 OK |
Die Anforderung ist erfolgreich. |
|
| Other Status Codes |
Unerwartete Fehlerantwort. Header x-ms-error-code: string |
Sicherheit
api-key
Typ:
apiKey
In:
header
OAuth2Auth
Typ:
oauth2
Ablauf:
implicit
Autorisierungs-URL:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereiche
| Name | Beschreibung |
|---|---|
| https://cognitiveservices.azure.com/.default |
Beispiele
| Audio modality chat completion |
| maximum set chat completion |
| minimum set chat completion |
Audio modality chat completion
Beispielanforderung
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Beispiel für eine Antwort
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Beispielanforderung
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Beispiel für eine Antwort
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Beispielanforderung
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Beispiel für eine Antwort
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definitionen
| Name | Beschreibung |
|---|---|
|
Audio |
Eine Darstellung der möglichen Audioformate für Audio. |
|
Azure. |
Das Fehlerobjekt. |
|
Azure. |
Eine Antwort, die Fehlerdetails enthält. |
|
Azure. |
Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors |
|
Chat |
Die Darstellung eines einzelnen Eingabeaufforderungsabschlusses als Teil einer gesamter Chatabschlussanfrage.
Im Allgemeinen werden |
|
Chat |
Darstellung der Antwortdaten aus einer Chatabschlussanfrage. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird. |
|
Chat |
Eine Darstellung der vom Modell generierten Audiodaten. |
|
Chat |
Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf. |
|
Chat |
Die Konfigurationsinformationen für eine Chatabschlussanforderung. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird. |
|
Chat |
Ein Antwortformat für Chatabschlusse, das Die Antworten auf das Senden gültiger JSON-Objekte beschränkt. Beachten Sie, dass Zum Aktivieren des JSON-Modus einige KI-Modelle möglicherweise auch erfordern, dass Sie das Modell anweisen, JSON über ein System oder eine Benutzernachricht zu erstellen. |
|
Chat |
Ein Antwortformat für Chatabschlusse, das Antworten auf das Senden gültiger JSON-Objekte beschränkt, wobei ein vom Aufrufer angegebenes JSON-Schema angegeben ist. |
|
Chat |
Die Definition des erforderlichen JSON-Schemas in der Antwort und zugeordneten Metadaten. |
|
Chat |
Ein Antwortformat für Chatabschlusse, das Textantworten ausgibt. Dies ist das Standardantwortformat. |
|
Chat |
Ein Vom KI-Modell angeforderter Funktionstoolaufruf. |
|
Chat |
Die Definition eines Chatabschlusstools, das eine Funktion aufrufen kann. |
|
Chat |
Eine Chatnachricht zur Anforderung, die Antwort oder Aktion des Assistenten darstellt. |
|
Chat |
Ein Verweis auf eine vom Modell generierte Audioantwort. |
|
Chat |
Eine Chatnachricht mit Systemanweisungen, die beeinflussen, wie das Modell eine Antwort auf Chatabschlusse generiert. |
|
Chat |
Eine Chatnachricht zur Anforderung, die die angeforderte Ausgabe eines konfigurierten Tools darstellt. |
|
Chat |
Eine Chatnachricht zur Anforderung, die Benutzereingaben an den Assistenten darstellt. |
|
Chat |
Eine Darstellung einer Chatnachricht, die in einer Antwort empfangen wurde. |
|
Chat |
Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chat-Vervollständigungsinteraktion. |
|
Completions |
Darstellung der Art und Weise, in der eine Antwort abgeschlossen wurde. |
|
Completions |
Darstellung der Tokenanzahl, die für eine Abschlussanforderung verarbeitet wurde. Anzahl berücksichtigt alle Token über Eingabeaufforderungen, Auswahlmöglichkeiten, Wahlvarianten, best_of Generationen und andere Verbraucher hinweg. |
|
Completions |
Eine Aufschlüsselung von Token, die in einem Abschluss verwendet werden. |
|
Extra |
Steuert, was geschieht, wenn zusätzliche Parameter, die von der REST-API nicht definiert sind, in der JSON-Anforderungsnutzlast übergeben werden. |
|
Function |
Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
|
Function |
Die Definition einer vom Aufrufer angegebenen Funktion, die Chatabschlusse als Reaktion auf übereinstimmende Benutzereingaben aufrufen kann. |
|
Prompt |
Eine Aufschlüsselung der Token, die im Eingabeaufforderungs-/Chatverlauf verwendet werden. |
AudioContentFormat
Eine Darstellung der möglichen Audioformate für Audio.
| Wert | Beschreibung |
|---|---|
| wav |
Gibt Audio im WAV-Format an. |
| mp3 |
Gibt Audio im MP3-Format an. |
Azure.Core.Foundations.Error
Das Fehlerobjekt.
| Name | Typ | Beschreibung |
|---|---|---|
| code |
string |
Eine serverdefinierte Gruppe von Fehlercodes. |
| details |
Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben. |
|
| innererror |
Ein Objekt, das spezifischere Informationen enthält als das aktuelle Objekt über den Fehler. |
|
| message |
string |
Eine lesbare Darstellung des Fehlers. |
| target |
string |
Das Ziel des Fehlers. |
Azure.Core.Foundations.ErrorResponse
Eine Antwort, die Fehlerdetails enthält.
| Name | Typ | Beschreibung |
|---|---|---|
| error |
Das Fehlerobjekt. |
Azure.Core.Foundations.InnerError
Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors
| Name | Typ | Beschreibung |
|---|---|---|
| code |
string |
Eine serverdefinierte Gruppe von Fehlercodes. |
| innererror |
Innerer Fehler. |
ChatChoice
Die Darstellung eines einzelnen Eingabeaufforderungsabschlusses als Teil einer gesamter Chatabschlussanfrage.
Im Allgemeinen werden n Auswahlmöglichkeiten pro bereitgestellter Eingabeaufforderung mit dem Standardwert 1 generiert.
Tokenbeschränkungen und andere Einstellungen können die Anzahl der generierten Auswahlmöglichkeiten einschränken.
| Name | Typ | Beschreibung |
|---|---|---|
| finish_reason |
Der Grund, warum dieser Chat die Auswahl abgeschlossen hat, hat die generierte Option abgeschlossen. |
|
| index |
integer (int32) |
Der sortierte Index, der diesem Chat zugeordnet ist, hat die Auswahl abgeschlossen. |
| message |
Die Chatnachricht für eine bestimmte Chatabschlussaufforderung. |
ChatCompletions
Darstellung der Antwortdaten aus einer Chatabschlussanfrage. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.
| Name | Typ | Beschreibung |
|---|---|---|
| choices |
Die Sammlung der Abschlussoptionen, die dieser Abschlussantwort zugeordnet sind.
Im Allgemeinen werden |
|
| created |
integer (unixtime) |
Der erste Zeitstempel, der der Erzeugungsaktivität für diese Abschlussantwort zugeordnet ist, wird als Sekunden seit Beginn der Unix-Epoche von 00:00 am 1. Januar 1970 dargestellt. |
| id |
string |
Ein eindeutiger Bezeichner, der dieser Chatabschlussantwort zugeordnet ist. |
| model |
string |
Das Modell, das für den Chatabschluss verwendet wird. |
| object |
enum:
chat. |
Der Antwortobjekttyp, der immer |
| usage |
Verwendungsinformationen für Token, die als Teil dieses Abschlussvorgangs verarbeitet und generiert werden. |
ChatCompletionsAudio
Eine Darstellung der vom Modell generierten Audiodaten.
| Name | Typ | Beschreibung |
|---|---|---|
| data |
string |
Base64-codierte Audiodaten |
| expires_at |
integer (unixtime) |
Der Unix-Zeitstempel (in Sekunden), an dem das Audiostück abläuft und nicht länger von seiner ID in Multi-Turn-Unterhaltungen referenziert werden kann. |
| format |
Das Format des Audioinhalts. Wenn das Format nicht angegeben wird, stimmt es mit dem Format überein, das in der Eingabeaudioanforderung verwendet wird. |
|
| id |
string |
Eindeutiger Bezeichner für die Audioantwort. Dieser Wert kann in Chatverlaufsnachrichten verwendet werden, anstatt das vollständige Audioobjekt zu übergeben. |
| transcript |
string |
Das Transkript der Audiodatei. |
ChatCompletionsModality
Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf.
| Wert | Beschreibung |
|---|---|
| text |
Das Modell darf nur Text generieren. |
| audio |
Das Modell darf Audio generieren. |
ChatCompletionsOptions
Die Konfigurationsinformationen für eine Chatabschlussanforderung. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.
| Name | Typ | Standardwert | Beschreibung |
|---|---|---|---|
| frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer kumulativen Häufigkeit im generierten Text angezeigt werden. Positive Werte führen dazu, dass Token weniger wahrscheinlich erscheinen, wenn ihre Häufigkeit zunimmt und die Wahrscheinlichkeit verringert wird, dass das Modell die gleichen Anweisungen wiederholt. Der unterstützte Bereich ist [-2, 2]. |
| max_tokens |
integer (int32) minimum: 0 |
Die maximale Anzahl der zu generierenden Token. |
|
| messages | ChatRequestMessage[]: |
Die Sammlung von Kontextnachrichten, die dieser Chatanfrage zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen für das Verhalten des Assistenten bereitstellt, gefolgt von abwechselnden Nachrichten zwischen den Rollen "Benutzer" und "Assistent". |
|
| modalities |
Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf. Die Standardmodalitäten sind |
||
| model |
string |
ID des zu verwendenden spezifischen KI-Modells, wenn mehrere Modelle auf dem Endpunkt verfügbar sind. |
|
| presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer vorhandenen Anwesenheit im generierten Text angezeigt werden. Positive Werte machen Token weniger wahrscheinlich, wenn sie bereits vorhanden sind, und erhöhen die Wahrscheinlichkeit, dass das Modell neue Themen ausgeben kann. Der unterstützte Bereich ist [-2, 2]. |
| response_format | ChatCompletionsResponseFormat: |
Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Die Einstellung auf Die Einstellung auf
Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt möglicherweise teilweise abgeschnitten wird, wenn |
|
| seed |
integer (int64) |
Wenn angegeben, versucht das System, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben Ausgangswert und denselben Parametern dasselbe Ergebnis zurückgeben sollten. Determinismus ist nicht garantiert. |
|
| stop |
string[] |
Eine Sammlung von Textsequenzen, die die Generierung beenden. |
|
| stream |
boolean |
Ein Wert, der angibt, ob Chatabschlusse für diese Anforderung gestreamt werden sollen. |
|
| temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
Die Samplingtemperatur, die die scheinbare Kreativität generierter Fertigstellungen steuert. Höhere Werte machen die Ausgabe zufälliger, während niedrigere Werte Die Ergebnisse fokussierter und deterministisch machen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1]. |
| tool_choice |
Wenn angegeben, konfiguriert das Modell, welche der bereitgestellten Tools für die Antwort auf Chatabschlusse verwendet werden können. |
||
| tools |
Eine Liste der Tools, die vom Modell aufgerufen werden können. Derzeit werden nur Funktionen als Tool unterstützt. Das Modell kann mit einer Funktionsaufrufanforderung antworten und die Eingabeargumente im JSON-Format für diese Funktion bereitstellen. |
||
| top_p |
number (float) minimum: 0maximum: 1 |
1 |
Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird. Dieser Wert bewirkt, dass das Modell die Ergebnisse von Token mit der bereitgestellten Wahrscheinlichkeitsmasse berücksichtigt. Beispielsweise führt ein Wert von 0,15 nur zu den Token, die die obersten 15% der Wahrscheinlichkeitsmasse umfassen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Ein Antwortformat für Chatabschlusse, das Die Antworten auf das Senden gültiger JSON-Objekte beschränkt. Beachten Sie, dass Zum Aktivieren des JSON-Modus einige KI-Modelle möglicherweise auch erfordern, dass Sie das Modell anweisen, JSON über ein System oder eine Benutzernachricht zu erstellen.
| Name | Typ | Beschreibung |
|---|---|---|
| type |
string:
json_object |
Der Antwortformattyp, der für Chatabschlusse verwendet werden soll. |
ChatCompletionsResponseFormatJsonSchema
Ein Antwortformat für Chatabschlusse, das Antworten auf das Senden gültiger JSON-Objekte beschränkt, wobei ein vom Aufrufer angegebenes JSON-Schema angegeben ist.
| Name | Typ | Beschreibung |
|---|---|---|
| json_schema |
Die Definition des erforderlichen JSON-Schemas in der Antwort und zugeordneten Metadaten. |
|
| type |
string:
json_schema |
Der Antwortformattyp, der für Chatabschlusse verwendet werden soll. |
ChatCompletionsResponseFormatJsonSchemaDefinition
Die Definition des erforderlichen JSON-Schemas in der Antwort und zugeordneten Metadaten.
| Name | Typ | Standardwert | Beschreibung |
|---|---|---|---|
| description |
string |
Eine Beschreibung des Antwortformats, das vom KI-Modell verwendet wird, um zu bestimmen, wie Antworten in diesem Format generiert werden. |
|
| name |
string |
Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. |
|
| schema |
Die Definition des JSON-Schemas |
||
| strict |
boolean |
False |
Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das im Feld |
ChatCompletionsResponseFormatText
Ein Antwortformat für Chatabschlusse, das Textantworten ausgibt. Dies ist das Standardantwortformat.
| Name | Typ | Beschreibung |
|---|---|---|
| type |
string:
text |
Der Antwortformattyp, der für Chatabschlusse verwendet werden soll. |
ChatCompletionsToolCall
Ein Vom KI-Modell angeforderter Funktionstoolaufruf.
| Name | Typ | Beschreibung |
|---|---|---|
| function |
Die Details des vom KI-Modell angeforderten Funktionsaufrufs. |
|
| id |
string |
Die ID des Toolaufrufs. |
| type |
enum:
function |
Der Typ des Toolaufrufs. Derzeit wird nur |
ChatCompletionsToolDefinition
Die Definition eines Chatabschlusstools, das eine Funktion aufrufen kann.
| Name | Typ | Beschreibung |
|---|---|---|
| function |
Die Funktionsdefinitionsdetails für das Funktionstool. |
|
| type |
enum:
function |
Der Typ des Tools. Derzeit wird nur |
ChatRequestAssistantMessage
Eine Chatnachricht zur Anforderung, die Antwort oder Aktion des Assistenten darstellt.
| Name | Typ | Beschreibung |
|---|---|---|
| audio |
Die von einer vorherigen Antwort in einer Multi-Turn-Unterhaltung generierten Audiodaten. |
|
| content |
string |
Der Inhalt der Nachricht. |
| role |
string:
assistant |
Die dieser Nachricht zugeordnete Chatrolle. |
| tool_calls |
Die Toolaufrufe, die aufgelöst werden müssen und deren Ausgaben an nachfolgende Eingabemeldungen angefügt werden müssen, damit die Anforderung zum Abschließen des Chats wie konfiguriert aufgelöst werden kann. |
ChatRequestAudioReference
Ein Verweis auf eine vom Modell generierte Audioantwort.
| Name | Typ | Beschreibung |
|---|---|---|
| id |
string |
Eindeutiger Bezeichner für die Audioantwort. Dieser Wert entspricht der ID eines vorherigen Audioabschlusses. |
ChatRequestSystemMessage
Eine Chatnachricht mit Systemanweisungen, die beeinflussen, wie das Modell eine Antwort auf Chatabschlusse generiert.
| Name | Typ | Beschreibung |
|---|---|---|
| content |
string |
Der Inhalt der Systemnachricht. |
| role |
string:
system |
Die dieser Nachricht zugeordnete Chatrolle. |
ChatRequestToolMessage
Eine Chatnachricht zur Anforderung, die die angeforderte Ausgabe eines konfigurierten Tools darstellt.
| Name | Typ | Beschreibung |
|---|---|---|
| content |
string |
Der Inhalt der Nachricht. |
| role |
string:
tool |
Die dieser Nachricht zugeordnete Chatrolle. |
| tool_call_id |
string |
Die ID des Toolaufrufs, der durch den bereitgestellten Inhalt aufgelöst wurde. |
ChatRequestUserMessage
Eine Chatnachricht zur Anforderung, die Benutzereingaben an den Assistenten darstellt.
| Name | Typ | Beschreibung |
|---|---|---|
| content |
Der Inhalt der Benutzernachricht mit verfügbaren Eingabetypen, die je nach ausgewähltem Modell variieren. |
|
| role |
string:
user |
Die dieser Nachricht zugeordnete Chatrolle. |
ChatResponseMessage
Eine Darstellung einer Chatnachricht, die in einer Antwort empfangen wurde.
| Name | Typ | Beschreibung |
|---|---|---|
| audio |
Die vom Modell generierten Audiodaten als Antwort auf die Nachrichten, wenn das Modell für die Generierung von Audio konfiguriert ist. |
|
| content |
string |
Der Inhalt der Nachricht. |
| role |
Die Chatrolle, die der Nachricht zugeordnet ist. |
|
| tool_calls |
Die Toolaufrufe, die aufgelöst werden müssen und deren Ausgaben an nachfolgende Eingabemeldungen angefügt werden müssen, damit die Anforderung zum Abschließen des Chats wie konfiguriert aufgelöst werden kann. |
ChatRole
Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chat-Vervollständigungsinteraktion.
| Wert | Beschreibung |
|---|---|
| system |
Die Rolle, die das Verhalten des Assistenten anweist oder festlegt. |
| developer |
Die Rolle, die Anweisungen für das Modell bereitstellt, priorisiert vor Benutzernachrichten. |
| user |
Die Rolle, die Eingaben für Chatabschlusse bereitstellt. |
| assistant |
Die Rolle, die Antworten auf vom System angewiesene, vom Benutzer aufgeforderte Eingaben bereitstellt. |
| tool |
Die Rolle, die Erweiterungstoolaktivitäten innerhalb eines Chatabschlussvorgangs darstellt. |
CompletionsFinishReason
Darstellung der Art und Weise, in der eine Antwort abgeschlossen wurde.
| Wert | Beschreibung |
|---|---|
| stop |
Die Fertigstellungen wurden normal beendet und erreichten das Ende der Tokengenerierung. |
| length |
Vervollständigungen haben die verfügbaren Tokengrenzwerte ausgeschöpft, bevor die Generierung abgeschlossen werden konnte. |
| content_filter |
Fertigstellungen haben eine Antwort generiert, die als potenziell vertraulich per Inhaltsmoderationsrichtlinien identifiziert wurde. |
| tool_calls |
Der Abschluss endete mit dem Modell, das ein bereitgestelltes Tool für die Ausgabe aufruft. |
CompletionsUsage
Darstellung der Tokenanzahl, die für eine Abschlussanforderung verarbeitet wurde. Anzahl berücksichtigt alle Token über Eingabeaufforderungen, Auswahlmöglichkeiten, Wahlvarianten, best_of Generationen und andere Verbraucher hinweg.
| Name | Typ | Beschreibung |
|---|---|---|
| completion_tokens |
integer (int32) |
Die Anzahl der Token, die über alle Abschlussemissionen generiert wurden. |
| completion_tokens_details |
Aufschlüsselung der in einem Abschluss verwendeten Token. |
|
| prompt_tokens |
integer (int32) |
Die Anzahl der Token in den bereitgestellten Eingabeaufforderungen für die Abschlussanforderung. |
| prompt_tokens_details |
Aufschlüsselung der token, die im Eingabeaufforderungs-/Chatverlauf verwendet werden. |
|
| total_tokens |
integer (int32) |
Die Gesamtzahl der Token, die für die Abschlussanforderung und -antwort verarbeitet wurden. |
CompletionsUsageDetails
Eine Aufschlüsselung von Token, die in einem Abschluss verwendet werden.
| Name | Typ | Beschreibung |
|---|---|---|
| audio_tokens |
integer (int32) |
Die Anzahl der Token, die der Audioeingabe entsprechen. |
| total_tokens |
integer (int32) |
Die Gesamtzahl der Token, die für die Abschlussanforderung und -antwort verarbeitet wurden. |
ExtraParameters
Steuert, was geschieht, wenn zusätzliche Parameter, die von der REST-API nicht definiert sind, in der JSON-Anforderungsnutzlast übergeben werden.
| Wert | Beschreibung |
|---|---|
| error |
Der Dienst tritt auf, wenn zusätzliche Parameter in der Anforderungsnutzlast erkannt wurden. Dies ist der Standarddienst. |
| drop |
Der Dienst ignoriert (Drop) zusätzliche Parameter in der Anforderungsnutzlast. Er übergibt nur die bekannten Parameter an das Back-End-KI-Modell. |
| pass-through |
Der Dienst übergibt zusätzliche Parameter an das Back-End-KI-Modell. |
FunctionCall
Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.
| Name | Typ | Beschreibung |
|---|---|---|
| arguments |
string |
Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. |
| name |
string |
Der Name der funktion, die aufgerufen werden soll. |
FunctionDefinition
Die Definition einer vom Aufrufer angegebenen Funktion, die Chatabschlusse als Reaktion auf übereinstimmende Benutzereingaben aufrufen kann.
| Name | Typ | Beschreibung |
|---|---|---|
| description |
string |
Eine Beschreibung der Funktion. Das Modell verwendet diese Beschreibung, wenn die Funktion ausgewählt und die Parameter interpretiert werden. |
| name |
string |
Der Name der funktion, die aufgerufen werden soll. |
| parameters |
Die Parameter, die die Funktion akzeptiert, die als JSON-Schemaobjekt beschrieben werden. |
PromptUsageDetails
Eine Aufschlüsselung der Token, die im Eingabeaufforderungs-/Chatverlauf verwendet werden.
| Name | Typ | Beschreibung |
|---|---|---|
| audio_tokens |
integer (int32) |
Die Anzahl der Token, die der Audioeingabe entsprechen. |
| cached_tokens |
integer (int32) |
Die Gesamtzahl der zwischengespeicherten Token. |