Freigeben über


Get Chat Completions - Get Chat Completions

Ruft Chatabschlusse für die bereitgestellten Chatnachrichten ab. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird. Die Methode führt einen REST-API-Aufruf an die /chat/completions Route auf dem angegebenen Endpunkt aus.

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview

URI-Parameter

Name In Erforderlich Typ Beschreibung
resource
path True

string

Der Azure AI Services-Ressourcenname, z. B. "my-resource"

api-version
query True

string

minLength: 1

Die API-Version, die für diesen Vorgang verwendet werden soll.

Anforderungsheader

Name Erforderlich Typ Beschreibung
extra-parameters

ExtraParameters

Steuert, was geschieht, wenn zusätzliche Parameter, die von der REST-API nicht definiert sind, in der JSON-Anforderungsnutzlast übergeben werden. Dadurch wird der HTTP-Anforderungsheader extra-parametersfestgelegt.

Anforderungstext

Name Erforderlich Typ Beschreibung
messages True ChatRequestMessage[]:

Die Sammlung von Kontextnachrichten, die dieser Chatanfrage zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen für das Verhalten des Assistenten bereitstellt, gefolgt von abwechselnden Nachrichten zwischen den Rollen "Benutzer" und "Assistent".

frequency_penalty

number (float)

minimum: -2
maximum: 2

Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer kumulativen Häufigkeit im generierten Text angezeigt werden. Positive Werte führen dazu, dass Token weniger wahrscheinlich erscheinen, wenn ihre Häufigkeit zunimmt und die Wahrscheinlichkeit verringert wird, dass das Modell die gleichen Anweisungen wiederholt. Der unterstützte Bereich ist [-2, 2].

max_tokens

integer (int32)

minimum: 0

Die maximale Anzahl der zu generierenden Token.

modalities

ChatCompletionsModality[]

Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf. Die Standardmodalitäten sind text. Die Angabe einer nicht unterstützten Modalitätskombination führt zu einem 422-Fehler.

model

string

ID des zu verwendenden spezifischen KI-Modells, wenn mehrere Modelle auf dem Endpunkt verfügbar sind.

presence_penalty

number (float)

minimum: -2
maximum: 2

Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer vorhandenen Anwesenheit im generierten Text angezeigt werden. Positive Werte machen Token weniger wahrscheinlich, wenn sie bereits vorhanden sind, und erhöhen die Wahrscheinlichkeit, dass das Modell neue Themen ausgeben kann. Der unterstützte Bereich ist [-2, 2].

response_format ChatCompletionsResponseFormat:

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Die Einstellung auf { "type": "json_object" } aktiviert den JSON-Modus, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültigER JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt möglicherweise teilweise abgeschnitten wird, wenn finish_reason="length", was angibt, dass die Generation max_tokens überschritten hat oder die Unterhaltung die maximale Kontextlänge überschritten hat.

seed

integer (int64)

Wenn angegeben, versucht das System, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben Ausgangswert und denselben Parametern dasselbe Ergebnis zurückgeben sollten. Determinismus ist nicht garantiert.

stop

string[]

Eine Sammlung von Textsequenzen, die die Generierung beenden.

stream

boolean

Ein Wert, der angibt, ob Chatabschlusse für diese Anforderung gestreamt werden sollen.

temperature

number (float)

minimum: 0
maximum: 1

Die Samplingtemperatur, die die scheinbare Kreativität generierter Fertigstellungen steuert. Höhere Werte machen die Ausgabe zufälliger, während niedrigere Werte Die Ergebnisse fokussierter und deterministisch machen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1].

tool_choice

Wenn angegeben, konfiguriert das Modell, welche der bereitgestellten Tools für die Antwort auf Chatabschlusse verwendet werden können.

tools

ChatCompletionsToolDefinition[]

Eine Liste der Tools, die vom Modell aufgerufen werden können. Derzeit werden nur Funktionen als Tool unterstützt. Das Modell kann mit einer Funktionsaufrufanforderung antworten und die Eingabeargumente im JSON-Format für diese Funktion bereitstellen.

top_p

number (float)

minimum: 0
maximum: 1

Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird. Dieser Wert bewirkt, dass das Modell die Ergebnisse von Token mit der bereitgestellten Wahrscheinlichkeitsmasse berücksichtigt. Beispielsweise führt ein Wert von 0,15 nur zu den Token, die die obersten 15% der Wahrscheinlichkeitsmasse umfassen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1].

Antworten

Name Typ Beschreibung
200 OK

ChatCompletions

Die Anforderung ist erfolgreich.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Unerwartete Fehlerantwort.

Header

x-ms-error-code: string

Sicherheit

api-key

Typ: apiKey
In: header

OAuth2Auth

Typ: oauth2
Ablauf: implicit
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Bereiche

Name Beschreibung
https://cognitiveservices.azure.com/.default

Beispiele

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Beispielanforderung

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Beispiel für eine Antwort

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Beispielanforderung

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Beispiel für eine Antwort

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Beispielanforderung

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Beispiel für eine Antwort

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Definitionen

Name Beschreibung
AudioContentFormat

Eine Darstellung der möglichen Audioformate für Audio.

Azure.Core.Foundations.Error

Das Fehlerobjekt.

Azure.Core.Foundations.ErrorResponse

Eine Antwort, die Fehlerdetails enthält.

Azure.Core.Foundations.InnerError

Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors

ChatChoice

Die Darstellung eines einzelnen Eingabeaufforderungsabschlusses als Teil einer gesamter Chatabschlussanfrage. Im Allgemeinen werden n Auswahlmöglichkeiten pro bereitgestellter Eingabeaufforderung mit dem Standardwert 1 generiert. Tokenbeschränkungen und andere Einstellungen können die Anzahl der generierten Auswahlmöglichkeiten einschränken.

ChatCompletions

Darstellung der Antwortdaten aus einer Chatabschlussanfrage. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

ChatCompletionsAudio

Eine Darstellung der vom Modell generierten Audiodaten.

ChatCompletionsModality

Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf.

ChatCompletionsOptions

Die Konfigurationsinformationen für eine Chatabschlussanforderung. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

ChatCompletionsResponseFormatJsonObject

Ein Antwortformat für Chatabschlusse, das Die Antworten auf das Senden gültiger JSON-Objekte beschränkt. Beachten Sie, dass Zum Aktivieren des JSON-Modus einige KI-Modelle möglicherweise auch erfordern, dass Sie das Modell anweisen, JSON über ein System oder eine Benutzernachricht zu erstellen.

ChatCompletionsResponseFormatJsonSchema

Ein Antwortformat für Chatabschlusse, das Antworten auf das Senden gültiger JSON-Objekte beschränkt, wobei ein vom Aufrufer angegebenes JSON-Schema angegeben ist.

ChatCompletionsResponseFormatJsonSchemaDefinition

Die Definition des erforderlichen JSON-Schemas in der Antwort und zugeordneten Metadaten.

ChatCompletionsResponseFormatText

Ein Antwortformat für Chatabschlusse, das Textantworten ausgibt. Dies ist das Standardantwortformat.

ChatCompletionsToolCall

Ein Vom KI-Modell angeforderter Funktionstoolaufruf.

ChatCompletionsToolDefinition

Die Definition eines Chatabschlusstools, das eine Funktion aufrufen kann.

ChatRequestAssistantMessage

Eine Chatnachricht zur Anforderung, die Antwort oder Aktion des Assistenten darstellt.

ChatRequestAudioReference

Ein Verweis auf eine vom Modell generierte Audioantwort.

ChatRequestSystemMessage

Eine Chatnachricht mit Systemanweisungen, die beeinflussen, wie das Modell eine Antwort auf Chatabschlusse generiert.

ChatRequestToolMessage

Eine Chatnachricht zur Anforderung, die die angeforderte Ausgabe eines konfigurierten Tools darstellt.

ChatRequestUserMessage

Eine Chatnachricht zur Anforderung, die Benutzereingaben an den Assistenten darstellt.

ChatResponseMessage

Eine Darstellung einer Chatnachricht, die in einer Antwort empfangen wurde.

ChatRole

Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chat-Vervollständigungsinteraktion.

CompletionsFinishReason

Darstellung der Art und Weise, in der eine Antwort abgeschlossen wurde.

CompletionsUsage

Darstellung der Tokenanzahl, die für eine Abschlussanforderung verarbeitet wurde. Anzahl berücksichtigt alle Token über Eingabeaufforderungen, Auswahlmöglichkeiten, Wahlvarianten, best_of Generationen und andere Verbraucher hinweg.

CompletionsUsageDetails

Eine Aufschlüsselung von Token, die in einem Abschluss verwendet werden.

ExtraParameters

Steuert, was geschieht, wenn zusätzliche Parameter, die von der REST-API nicht definiert sind, in der JSON-Anforderungsnutzlast übergeben werden.

FunctionCall

Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

FunctionDefinition

Die Definition einer vom Aufrufer angegebenen Funktion, die Chatabschlusse als Reaktion auf übereinstimmende Benutzereingaben aufrufen kann.

PromptUsageDetails

Eine Aufschlüsselung der Token, die im Eingabeaufforderungs-/Chatverlauf verwendet werden.

AudioContentFormat

Eine Darstellung der möglichen Audioformate für Audio.

Wert Beschreibung
wav

Gibt Audio im WAV-Format an.

mp3

Gibt Audio im MP3-Format an.

Azure.Core.Foundations.Error

Das Fehlerobjekt.

Name Typ Beschreibung
code

string

Eine serverdefinierte Gruppe von Fehlercodes.

details

Azure.Core.Foundations.Error[]

Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben.

innererror

Azure.Core.Foundations.InnerError

Ein Objekt, das spezifischere Informationen enthält als das aktuelle Objekt über den Fehler.

message

string

Eine lesbare Darstellung des Fehlers.

target

string

Das Ziel des Fehlers.

Azure.Core.Foundations.ErrorResponse

Eine Antwort, die Fehlerdetails enthält.

Name Typ Beschreibung
error

Azure.Core.Foundations.Error

Das Fehlerobjekt.

Azure.Core.Foundations.InnerError

Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors

Name Typ Beschreibung
code

string

Eine serverdefinierte Gruppe von Fehlercodes.

innererror

Azure.Core.Foundations.InnerError

Innerer Fehler.

ChatChoice

Die Darstellung eines einzelnen Eingabeaufforderungsabschlusses als Teil einer gesamter Chatabschlussanfrage. Im Allgemeinen werden n Auswahlmöglichkeiten pro bereitgestellter Eingabeaufforderung mit dem Standardwert 1 generiert. Tokenbeschränkungen und andere Einstellungen können die Anzahl der generierten Auswahlmöglichkeiten einschränken.

Name Typ Beschreibung
finish_reason

CompletionsFinishReason

Der Grund, warum dieser Chat die Auswahl abgeschlossen hat, hat die generierte Option abgeschlossen.

index

integer (int32)

Der sortierte Index, der diesem Chat zugeordnet ist, hat die Auswahl abgeschlossen.

message

ChatResponseMessage

Die Chatnachricht für eine bestimmte Chatabschlussaufforderung.

ChatCompletions

Darstellung der Antwortdaten aus einer Chatabschlussanfrage. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Name Typ Beschreibung
choices

ChatChoice[]

Die Sammlung der Abschlussoptionen, die dieser Abschlussantwort zugeordnet sind. Im Allgemeinen werden n Auswahlmöglichkeiten pro bereitgestellter Eingabeaufforderung mit dem Standardwert 1 generiert. Tokenbeschränkungen und andere Einstellungen können die Anzahl der generierten Auswahlmöglichkeiten einschränken.

created

integer (unixtime)

Der erste Zeitstempel, der der Erzeugungsaktivität für diese Abschlussantwort zugeordnet ist, wird als Sekunden seit Beginn der Unix-Epoche von 00:00 am 1. Januar 1970 dargestellt.

id

string

Ein eindeutiger Bezeichner, der dieser Chatabschlussantwort zugeordnet ist.

model

string

Das Modell, das für den Chatabschluss verwendet wird.

object enum:

chat.completion

Der Antwortobjekttyp, der immer chat.completionist.

usage

CompletionsUsage

Verwendungsinformationen für Token, die als Teil dieses Abschlussvorgangs verarbeitet und generiert werden.

ChatCompletionsAudio

Eine Darstellung der vom Modell generierten Audiodaten.

Name Typ Beschreibung
data

string

Base64-codierte Audiodaten

expires_at

integer (unixtime)

Der Unix-Zeitstempel (in Sekunden), an dem das Audiostück abläuft und nicht länger von seiner ID in Multi-Turn-Unterhaltungen referenziert werden kann.

format

AudioContentFormat

Das Format des Audioinhalts. Wenn das Format nicht angegeben wird, stimmt es mit dem Format überein, das in der Eingabeaudioanforderung verwendet wird.

id

string

Eindeutiger Bezeichner für die Audioantwort. Dieser Wert kann in Chatverlaufsnachrichten verwendet werden, anstatt das vollständige Audioobjekt zu übergeben.

transcript

string

Das Transkript der Audiodatei.

ChatCompletionsModality

Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf.

Wert Beschreibung
text

Das Modell darf nur Text generieren.

audio

Das Modell darf Audio generieren.

ChatCompletionsOptions

Die Konfigurationsinformationen für eine Chatabschlussanforderung. Fertigstellungen unterstützen eine Vielzahl von Aufgaben und generieren Text, der von bereitgestellten Eingabeaufforderungsdaten fortgesetzt oder "abgeschlossen" wird.

Name Typ Standardwert Beschreibung
frequency_penalty

number (float)

minimum: -2
maximum: 2
0

Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer kumulativen Häufigkeit im generierten Text angezeigt werden. Positive Werte führen dazu, dass Token weniger wahrscheinlich erscheinen, wenn ihre Häufigkeit zunimmt und die Wahrscheinlichkeit verringert wird, dass das Modell die gleichen Anweisungen wiederholt. Der unterstützte Bereich ist [-2, 2].

max_tokens

integer (int32)

minimum: 0

Die maximale Anzahl der zu generierenden Token.

messages ChatRequestMessage[]:

Die Sammlung von Kontextnachrichten, die dieser Chatanfrage zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen für das Verhalten des Assistenten bereitstellt, gefolgt von abwechselnden Nachrichten zwischen den Rollen "Benutzer" und "Assistent".

modalities

ChatCompletionsModality[]

Die Modalitäten, die das Modell für die Chatabschlussantwort verwenden darf. Die Standardmodalitäten sind text. Die Angabe einer nicht unterstützten Modalitätskombination führt zu einem 422-Fehler.

model

string

ID des zu verwendenden spezifischen KI-Modells, wenn mehrere Modelle auf dem Endpunkt verfügbar sind.

presence_penalty

number (float)

minimum: -2
maximum: 2
0

Ein Wert, der die Wahrscheinlichkeit generierter Token beeinflusst, die basierend auf ihrer vorhandenen Anwesenheit im generierten Text angezeigt werden. Positive Werte machen Token weniger wahrscheinlich, wenn sie bereits vorhanden sind, und erhöhen die Wahrscheinlichkeit, dass das Modell neue Themen ausgeben kann. Der unterstützte Bereich ist [-2, 2].

response_format ChatCompletionsResponseFormat:

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Die Einstellung auf { "type": "json_object" } aktiviert den JSON-Modus, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültigER JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt möglicherweise teilweise abgeschnitten wird, wenn finish_reason="length", was angibt, dass die Generation max_tokens überschritten hat oder die Unterhaltung die maximale Kontextlänge überschritten hat.

seed

integer (int64)

Wenn angegeben, versucht das System, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben Ausgangswert und denselben Parametern dasselbe Ergebnis zurückgeben sollten. Determinismus ist nicht garantiert.

stop

string[]

Eine Sammlung von Textsequenzen, die die Generierung beenden.

stream

boolean

Ein Wert, der angibt, ob Chatabschlusse für diese Anforderung gestreamt werden sollen.

temperature

number (float)

minimum: 0
maximum: 1
0.7

Die Samplingtemperatur, die die scheinbare Kreativität generierter Fertigstellungen steuert. Höhere Werte machen die Ausgabe zufälliger, während niedrigere Werte Die Ergebnisse fokussierter und deterministisch machen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1].

tool_choice

Wenn angegeben, konfiguriert das Modell, welche der bereitgestellten Tools für die Antwort auf Chatabschlusse verwendet werden können.

tools

ChatCompletionsToolDefinition[]

Eine Liste der Tools, die vom Modell aufgerufen werden können. Derzeit werden nur Funktionen als Tool unterstützt. Das Modell kann mit einer Funktionsaufrufanforderung antworten und die Eingabeargumente im JSON-Format für diese Funktion bereitstellen.

top_p

number (float)

minimum: 0
maximum: 1
1

Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird. Dieser Wert bewirkt, dass das Modell die Ergebnisse von Token mit der bereitgestellten Wahrscheinlichkeitsmasse berücksichtigt. Beispielsweise führt ein Wert von 0,15 nur zu den Token, die die obersten 15% der Wahrscheinlichkeitsmasse umfassen. Es wird nicht empfohlen, Die Temperatur zu ändern und top_p für die gleiche Fertigstellungsanforderung wie die Interaktion dieser beiden Einstellungen ist schwer vorherzusagen. Der unterstützte Bereich ist [0, 1].

ChatCompletionsResponseFormatJsonObject

Ein Antwortformat für Chatabschlusse, das Die Antworten auf das Senden gültiger JSON-Objekte beschränkt. Beachten Sie, dass Zum Aktivieren des JSON-Modus einige KI-Modelle möglicherweise auch erfordern, dass Sie das Modell anweisen, JSON über ein System oder eine Benutzernachricht zu erstellen.

Name Typ Beschreibung
type string:

json_object

Der Antwortformattyp, der für Chatabschlusse verwendet werden soll.

ChatCompletionsResponseFormatJsonSchema

Ein Antwortformat für Chatabschlusse, das Antworten auf das Senden gültiger JSON-Objekte beschränkt, wobei ein vom Aufrufer angegebenes JSON-Schema angegeben ist.

Name Typ Beschreibung
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

Die Definition des erforderlichen JSON-Schemas in der Antwort und zugeordneten Metadaten.

type string:

json_schema

Der Antwortformattyp, der für Chatabschlusse verwendet werden soll.

ChatCompletionsResponseFormatJsonSchemaDefinition

Die Definition des erforderlichen JSON-Schemas in der Antwort und zugeordneten Metadaten.

Name Typ Standardwert Beschreibung
description

string

Eine Beschreibung des Antwortformats, das vom KI-Modell verwendet wird, um zu bestimmen, wie Antworten in diesem Format generiert werden.

name

string

Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64.

schema

Die Definition des JSON-Schemas

strict

boolean

False

Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrueist.

ChatCompletionsResponseFormatText

Ein Antwortformat für Chatabschlusse, das Textantworten ausgibt. Dies ist das Standardantwortformat.

Name Typ Beschreibung
type string:

text

Der Antwortformattyp, der für Chatabschlusse verwendet werden soll.

ChatCompletionsToolCall

Ein Vom KI-Modell angeforderter Funktionstoolaufruf.

Name Typ Beschreibung
function

FunctionCall

Die Details des vom KI-Modell angeforderten Funktionsaufrufs.

id

string

Die ID des Toolaufrufs.

type enum:

function

Der Typ des Toolaufrufs. Derzeit wird nur function unterstützt.

ChatCompletionsToolDefinition

Die Definition eines Chatabschlusstools, das eine Funktion aufrufen kann.

Name Typ Beschreibung
function

FunctionDefinition

Die Funktionsdefinitionsdetails für das Funktionstool.

type enum:

function

Der Typ des Tools. Derzeit wird nur function unterstützt.

ChatRequestAssistantMessage

Eine Chatnachricht zur Anforderung, die Antwort oder Aktion des Assistenten darstellt.

Name Typ Beschreibung
audio

ChatRequestAudioReference

Die von einer vorherigen Antwort in einer Multi-Turn-Unterhaltung generierten Audiodaten.

content

string

Der Inhalt der Nachricht.

role string:

assistant

Die dieser Nachricht zugeordnete Chatrolle.

tool_calls

ChatCompletionsToolCall[]

Die Toolaufrufe, die aufgelöst werden müssen und deren Ausgaben an nachfolgende Eingabemeldungen angefügt werden müssen, damit die Anforderung zum Abschließen des Chats wie konfiguriert aufgelöst werden kann.

ChatRequestAudioReference

Ein Verweis auf eine vom Modell generierte Audioantwort.

Name Typ Beschreibung
id

string

Eindeutiger Bezeichner für die Audioantwort. Dieser Wert entspricht der ID eines vorherigen Audioabschlusses.

ChatRequestSystemMessage

Eine Chatnachricht mit Systemanweisungen, die beeinflussen, wie das Modell eine Antwort auf Chatabschlusse generiert.

Name Typ Beschreibung
content

string

Der Inhalt der Systemnachricht.

role string:

system

Die dieser Nachricht zugeordnete Chatrolle.

ChatRequestToolMessage

Eine Chatnachricht zur Anforderung, die die angeforderte Ausgabe eines konfigurierten Tools darstellt.

Name Typ Beschreibung
content

string

Der Inhalt der Nachricht.

role string:

tool

Die dieser Nachricht zugeordnete Chatrolle.

tool_call_id

string

Die ID des Toolaufrufs, der durch den bereitgestellten Inhalt aufgelöst wurde.

ChatRequestUserMessage

Eine Chatnachricht zur Anforderung, die Benutzereingaben an den Assistenten darstellt.

Name Typ Beschreibung
content

Der Inhalt der Benutzernachricht mit verfügbaren Eingabetypen, die je nach ausgewähltem Modell variieren.

role string:

user

Die dieser Nachricht zugeordnete Chatrolle.

ChatResponseMessage

Eine Darstellung einer Chatnachricht, die in einer Antwort empfangen wurde.

Name Typ Beschreibung
audio

ChatCompletionsAudio

Die vom Modell generierten Audiodaten als Antwort auf die Nachrichten, wenn das Modell für die Generierung von Audio konfiguriert ist.

content

string

Der Inhalt der Nachricht.

role

ChatRole

Die Chatrolle, die der Nachricht zugeordnet ist.

tool_calls

ChatCompletionsToolCall[]

Die Toolaufrufe, die aufgelöst werden müssen und deren Ausgaben an nachfolgende Eingabemeldungen angefügt werden müssen, damit die Anforderung zum Abschließen des Chats wie konfiguriert aufgelöst werden kann.

ChatRole

Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chat-Vervollständigungsinteraktion.

Wert Beschreibung
system

Die Rolle, die das Verhalten des Assistenten anweist oder festlegt.

developer

Die Rolle, die Anweisungen für das Modell bereitstellt, priorisiert vor Benutzernachrichten.

user

Die Rolle, die Eingaben für Chatabschlusse bereitstellt.

assistant

Die Rolle, die Antworten auf vom System angewiesene, vom Benutzer aufgeforderte Eingaben bereitstellt.

tool

Die Rolle, die Erweiterungstoolaktivitäten innerhalb eines Chatabschlussvorgangs darstellt.

CompletionsFinishReason

Darstellung der Art und Weise, in der eine Antwort abgeschlossen wurde.

Wert Beschreibung
stop

Die Fertigstellungen wurden normal beendet und erreichten das Ende der Tokengenerierung.

length

Vervollständigungen haben die verfügbaren Tokengrenzwerte ausgeschöpft, bevor die Generierung abgeschlossen werden konnte.

content_filter

Fertigstellungen haben eine Antwort generiert, die als potenziell vertraulich per Inhaltsmoderationsrichtlinien identifiziert wurde.

tool_calls

Der Abschluss endete mit dem Modell, das ein bereitgestelltes Tool für die Ausgabe aufruft.

CompletionsUsage

Darstellung der Tokenanzahl, die für eine Abschlussanforderung verarbeitet wurde. Anzahl berücksichtigt alle Token über Eingabeaufforderungen, Auswahlmöglichkeiten, Wahlvarianten, best_of Generationen und andere Verbraucher hinweg.

Name Typ Beschreibung
completion_tokens

integer (int32)

Die Anzahl der Token, die über alle Abschlussemissionen generiert wurden.

completion_tokens_details

CompletionsUsageDetails

Aufschlüsselung der in einem Abschluss verwendeten Token.

prompt_tokens

integer (int32)

Die Anzahl der Token in den bereitgestellten Eingabeaufforderungen für die Abschlussanforderung.

prompt_tokens_details

PromptUsageDetails

Aufschlüsselung der token, die im Eingabeaufforderungs-/Chatverlauf verwendet werden.

total_tokens

integer (int32)

Die Gesamtzahl der Token, die für die Abschlussanforderung und -antwort verarbeitet wurden.

CompletionsUsageDetails

Eine Aufschlüsselung von Token, die in einem Abschluss verwendet werden.

Name Typ Beschreibung
audio_tokens

integer (int32)

Die Anzahl der Token, die der Audioeingabe entsprechen.

total_tokens

integer (int32)

Die Gesamtzahl der Token, die für die Abschlussanforderung und -antwort verarbeitet wurden.

ExtraParameters

Steuert, was geschieht, wenn zusätzliche Parameter, die von der REST-API nicht definiert sind, in der JSON-Anforderungsnutzlast übergeben werden.

Wert Beschreibung
error

Der Dienst tritt auf, wenn zusätzliche Parameter in der Anforderungsnutzlast erkannt wurden. Dies ist der Standarddienst.

drop

Der Dienst ignoriert (Drop) zusätzliche Parameter in der Anforderungsnutzlast. Er übergibt nur die bekannten Parameter an das Back-End-KI-Modell.

pass-through

Der Dienst übergibt zusätzliche Parameter an das Back-End-KI-Modell.

FunctionCall

Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

Name Typ Beschreibung
arguments

string

Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

name

string

Der Name der funktion, die aufgerufen werden soll.

FunctionDefinition

Die Definition einer vom Aufrufer angegebenen Funktion, die Chatabschlusse als Reaktion auf übereinstimmende Benutzereingaben aufrufen kann.

Name Typ Beschreibung
description

string

Eine Beschreibung der Funktion. Das Modell verwendet diese Beschreibung, wenn die Funktion ausgewählt und die Parameter interpretiert werden.

name

string

Der Name der funktion, die aufgerufen werden soll.

parameters

Die Parameter, die die Funktion akzeptiert, die als JSON-Schemaobjekt beschrieben werden.

PromptUsageDetails

Eine Aufschlüsselung der Token, die im Eingabeaufforderungs-/Chatverlauf verwendet werden.

Name Typ Beschreibung
audio_tokens

integer (int32)

Die Anzahl der Token, die der Audioeingabe entsprechen.

cached_tokens

integer (int32)

Die Gesamtzahl der zwischengespeicherten Token.