Get Chat Completions - Get Chat Completions
Ottiene i completamenti della chat per i messaggi di chat forniti.
I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti. Il metodo effettua una chiamata API REST alla route /chat/completions
sull'endpoint specificato.
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
Parametri dell'URI
Nome | In | Necessario | Tipo | Descrizione |
---|---|---|---|---|
resource
|
path | True |
string |
Nome della risorsa di Servizi di intelligenza artificiale di Azure, ad esempio "my-resource" |
api-version
|
query | True |
string minLength: 1 |
Versione dell'API da usare per questa operazione. |
Intestazione della richiesta
Nome | Necessario | Tipo | Descrizione |
---|---|---|---|
extra-parameters |
Controlla cosa accade se parametri aggiuntivi, non definiti dall'API REST, vengono passati nel payload della richiesta JSON.
In questo modo viene impostata l'intestazione della richiesta HTTP |
Corpo della richiesta
Nome | Necessario | Tipo | Descrizione |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
Raccolta di messaggi di contesto associati a questa richiesta di completamento della chat. L'utilizzo tipico inizia con un messaggio di chat per il ruolo Sistema che fornisce istruzioni per il comportamento dell'assistente, seguito da messaggi alternati tra i ruoli Utente e Assistente. |
frequency_penalty |
number (float) minimum: -2maximum: 2 |
Valore che influenza la probabilità che i token generati vengano visualizzati in base alla frequenza cumulativa nel testo generato. I valori positivi renderanno meno probabile che i token vengano visualizzati man mano che aumentano la frequenza e riducono la probabilità che il modello ripeti le stesse istruzioni verbatim. L'intervallo supportato è [-2, 2]. |
|
max_tokens |
integer (int32) minimum: 0 |
Numero massimo di token da generare. |
|
modalities |
Le modalità che il modello può usare per la risposta di completamento della chat. La modalità predefinita è |
||
model |
string |
ID del modello di intelligenza artificiale specifico da usare, se nell'endpoint sono disponibili più modelli. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
Valore che influenza la probabilità che i token generati vengano visualizzati in base alla loro presenza esistente nel testo generato. I valori positivi renderanno i token meno probabili quando esistono già e aumentano la probabilità che il modello restituisca nuovi argomenti. L'intervallo supportato è [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Oggetto che specifica il formato che il modello deve restituire. L'impostazione su L'impostazione su
Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se |
|
seed |
integer (int64) |
Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico in modo che le richieste ripetute con lo stesso valore di inizializzazione e gli stessi parametri restituisca lo stesso risultato. Il determinismo non è garantito. |
|
stop |
string[] |
Raccolta di sequenze testuali che termineranno la generazione dei completamenti. |
|
stream |
boolean |
Valore che indica se i completamenti della chat devono essere trasmessi per questa richiesta. |
|
temperature |
number (float) minimum: 0maximum: 1 |
Temperatura di campionamento da utilizzare che controlla la creatività apparente dei completamenti generati. I valori più elevati renderanno l'output più casuale, mentre i valori inferiori renderanno i risultati più mirati e deterministici. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1]. |
|
tool_choice |
Se specificato, il modello configurerà quale degli strumenti forniti può usare per la risposta di completamento della chat. |
||
tools |
Un elenco di strumenti che il modello può richiedere di chiamare. Attualmente, solo le funzioni sono supportate come strumento. Il modello può rispondere con una richiesta di chiamata di funzione e fornire gli argomenti di input in formato JSON per tale funzione. |
||
top_p |
number (float) minimum: 0maximum: 1 |
Un'alternativa al campionamento con temperatura denominata campionamento del nucleo. Questo valore fa in modo che il modello consideri i risultati dei token con la massa di probabilità specificata. Ad esempio, un valore pari a 0,15 causerà solo i token che comprendono i primi 15% di massa di probabilità da considerare. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1]. |
Risposte
Nome | Tipo | Descrizione |
---|---|---|
200 OK |
La richiesta ha avuto esito positivo. |
|
Other Status Codes |
Risposta di errore imprevista. Intestazioni x-ms-error-code: string |
Sicurezza
api-key
Tipo:
apiKey
In:
header
OAuth2Auth
Tipo:
oauth2
Flow:
implicit
URL di autorizzazione:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambiti
Nome | Descrizione |
---|---|
https://cognitiveservices.azure.com/.default |
Esempio
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Esempio di richiesta
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Risposta di esempio
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Esempio di richiesta
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Risposta di esempio
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Esempio di richiesta
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Risposta di esempio
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definizioni
Nome | Descrizione |
---|---|
Audio |
Rappresentazione dei possibili formati audio per l'audio. |
Azure. |
Oggetto error. |
Azure. |
Risposta contenente i dettagli dell'errore. |
Azure. |
Oggetto contenente informazioni più specifiche sull'errore. In base alle linee guida dell'API Microsoft One , https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors. |
Chat |
Rappresentazione del completamento di un singolo prompt come parte di una richiesta di completamento generale della chat.
In genere, |
Chat |
Rappresentazione dei dati di risposta da una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti. |
Chat |
Rappresentazione dell'audio generato dal modello. |
Chat |
Le modalità che il modello può usare per la risposta di completamento della chat. |
Chat |
Informazioni di configurazione per una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti. |
Chat |
Formato di risposta per i completamenti della chat che limita le risposte alla creazione di oggetti JSON validi. Si noti che per abilitare la modalità JSON, alcuni modelli di intelligenza artificiale possono richiedere anche di indicare al modello di produrre JSON tramite un messaggio di sistema o utente. |
Chat |
Formato di risposta per i completamenti della chat che limita le risposte all'emissione di oggetti JSON validi, con uno schema JSON specificato dal chiamante. |
Chat |
Definizione dello schema JSON richiesto nella risposta e metadati associati. |
Chat |
Formato di risposta per i completamenti della chat che genera risposte di testo. Questo è il formato di risposta predefinito. |
Chat |
Chiamata dello strumento di funzione richiesta dal modello di intelligenza artificiale. |
Chat |
Definizione di uno strumento di completamento della chat che può chiamare una funzione. |
Chat |
Messaggio di chat di richiesta che rappresenta la risposta o l'azione dell'assistente. |
Chat |
Riferimento a una risposta audio generata dal modello. |
Chat |
Messaggio di chat di richiesta contenente istruzioni di sistema che influenzano il modo in cui il modello genererà una risposta di completamento della chat. |
Chat |
Messaggio di chat di richiesta che rappresenta l'output richiesto da uno strumento configurato. |
Chat |
Messaggio di chat di richiesta che rappresenta l'input dell'utente all'assistente. |
Chat |
Rappresentazione di un messaggio di chat ricevuto in una risposta. |
Chat |
Descrizione dello scopo previsto di un messaggio all'interno di un'interazione di completamento della chat. |
Completions |
Rappresentazione della modalità di conclusione di una risposta di completamento. |
Completions |
Rappresentazione dei conteggi dei token elaborati per una richiesta di completamento. I conteggi considerano tutti i token tra prompt, scelte, alternative di scelta, best_of generazioni e altri consumer. |
Completions |
Suddivisione dei token usati in un completamento. |
Extra |
Controlla cosa accade se parametri aggiuntivi, non definiti dall'API REST, vengono passati nel payload della richiesta JSON. |
Function |
Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
Function |
La definizione di una funzione specificata dal chiamante che i completamenti della chat possono richiamare in risposta all'input dell'utente corrispondente. |
Prompt |
Suddivisione dei token usati nella cronologia prompt/chat. |
AudioContentFormat
Rappresentazione dei possibili formati audio per l'audio.
Valore | Descrizione |
---|---|
mp3 |
Specifica l'audio in formato MP3. |
wav |
Specifica l'audio in formato WAV. |
Azure.Core.Foundations.Error
Oggetto error.
Nome | Tipo | Descrizione |
---|---|---|
code |
string |
Uno di un set definito dal server di codici di errore. |
details |
Matrice di dettagli sugli errori specifici che hanno causato l'errore segnalato. |
|
innererror |
Oggetto contenente informazioni più specifiche dell'oggetto corrente sull'errore. |
|
message |
string |
Rappresentazione leggibile dell'errore. |
target |
string |
Destinazione dell'errore. |
Azure.Core.Foundations.ErrorResponse
Risposta contenente i dettagli dell'errore.
Nome | Tipo | Descrizione |
---|---|---|
error |
Oggetto error. |
Azure.Core.Foundations.InnerError
Oggetto contenente informazioni più specifiche sull'errore. In base alle linee guida dell'API Microsoft One , https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.
Nome | Tipo | Descrizione |
---|---|---|
code |
string |
Uno di un set definito dal server di codici di errore. |
innererror |
Errore interno. |
ChatChoice
Rappresentazione del completamento di un singolo prompt come parte di una richiesta di completamento generale della chat.
In genere, n
scelte vengono generate per ogni prompt fornito con un valore predefinito pari a 1.
I limiti dei token e altre impostazioni possono limitare il numero di scelte generate.
Nome | Tipo | Descrizione |
---|---|---|
finish_reason |
Il motivo per cui questa scelta di completamento della chat ha completato la generazione. |
|
index |
integer (int32) |
Indice ordinato associato a questa scelta di completamento della chat. |
message |
Messaggio di chat per una richiesta di completamento della chat specificata. |
ChatCompletions
Rappresentazione dei dati di risposta da una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti.
Nome | Tipo | Descrizione |
---|---|---|
choices |
Raccolta di scelte di completamento associate a questa risposta di completamento.
In genere, |
|
created |
integer (unixtime) |
Il primo timestamp associato all'attività di generazione per questa risposta di completamento, rappresentato come secondi dall'inizio dell'epoca Unix di 00:00 il 1 gennaio 1970. |
id |
string |
Identificatore univoco associato a questa risposta di completamento della chat. |
model |
string |
Modello usato per il completamento della chat. |
object |
enum:
chat. |
Tipo di oggetto risposta, che è sempre |
usage |
Informazioni sull'utilizzo per i token elaborati e generati come parte di questa operazione di completamento. |
ChatCompletionsAudio
Rappresentazione dell'audio generato dal modello.
Nome | Tipo | Descrizione |
---|---|---|
data |
string |
Dati audio con codifica Base64 |
expires_at |
integer (unixtime) |
Timestamp Unix (in secondi) in cui scade la parte audio e non può più essere fatto riferimento dal relativo ID nelle conversazioni a più turni. |
format |
Formato del contenuto audio. Se il formato non viene specificato, corrisponderà al formato usato nella richiesta audio di input. |
|
id |
string |
Identificatore univoco per la risposta audio. Questo valore può essere usato nei messaggi della cronologia delle chat anziché passare l'oggetto audio completo. |
transcript |
string |
Trascrizione del file audio. |
ChatCompletionsModality
Le modalità che il modello può usare per la risposta di completamento della chat.
Valore | Descrizione |
---|---|
audio |
Il modello può generare audio. |
text |
Il modello può generare testo solo. |
ChatCompletionsOptions
Informazioni di configurazione per una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti.
Nome | Tipo | Valore predefinito | Descrizione |
---|---|---|---|
frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Valore che influenza la probabilità che i token generati vengano visualizzati in base alla frequenza cumulativa nel testo generato. I valori positivi renderanno meno probabile che i token vengano visualizzati man mano che aumentano la frequenza e riducono la probabilità che il modello ripeti le stesse istruzioni verbatim. L'intervallo supportato è [-2, 2]. |
max_tokens |
integer (int32) minimum: 0 |
Numero massimo di token da generare. |
|
messages | ChatRequestMessage[]: |
Raccolta di messaggi di contesto associati a questa richiesta di completamento della chat. L'utilizzo tipico inizia con un messaggio di chat per il ruolo Sistema che fornisce istruzioni per il comportamento dell'assistente, seguito da messaggi alternati tra i ruoli Utente e Assistente. |
|
modalities |
Le modalità che il modello può usare per la risposta di completamento della chat. La modalità predefinita è |
||
model |
string |
ID del modello di intelligenza artificiale specifico da usare, se nell'endpoint sono disponibili più modelli. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Valore che influenza la probabilità che i token generati vengano visualizzati in base alla loro presenza esistente nel testo generato. I valori positivi renderanno i token meno probabili quando esistono già e aumentano la probabilità che il modello restituisca nuovi argomenti. L'intervallo supportato è [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Oggetto che specifica il formato che il modello deve restituire. L'impostazione su L'impostazione su
Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se |
|
seed |
integer (int64) |
Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico in modo che le richieste ripetute con lo stesso valore di inizializzazione e gli stessi parametri restituisca lo stesso risultato. Il determinismo non è garantito. |
|
stop |
string[] |
Raccolta di sequenze testuali che termineranno la generazione dei completamenti. |
|
stream |
boolean |
Valore che indica se i completamenti della chat devono essere trasmessi per questa richiesta. |
|
temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
Temperatura di campionamento da utilizzare che controlla la creatività apparente dei completamenti generati. I valori più elevati renderanno l'output più casuale, mentre i valori inferiori renderanno i risultati più mirati e deterministici. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1]. |
tool_choice |
Se specificato, il modello configurerà quale degli strumenti forniti può usare per la risposta di completamento della chat. |
||
tools |
Un elenco di strumenti che il modello può richiedere di chiamare. Attualmente, solo le funzioni sono supportate come strumento. Il modello può rispondere con una richiesta di chiamata di funzione e fornire gli argomenti di input in formato JSON per tale funzione. |
||
top_p |
number (float) minimum: 0maximum: 1 |
1 |
Un'alternativa al campionamento con temperatura denominata campionamento del nucleo. Questo valore fa in modo che il modello consideri i risultati dei token con la massa di probabilità specificata. Ad esempio, un valore pari a 0,15 causerà solo i token che comprendono i primi 15% di massa di probabilità da considerare. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Formato di risposta per i completamenti della chat che limita le risposte alla creazione di oggetti JSON validi. Si noti che per abilitare la modalità JSON, alcuni modelli di intelligenza artificiale possono richiedere anche di indicare al modello di produrre JSON tramite un messaggio di sistema o utente.
Nome | Tipo | Descrizione |
---|---|---|
type |
string:
json_object |
Tipo di formato di risposta da usare per i completamenti della chat. |
ChatCompletionsResponseFormatJsonSchema
Formato di risposta per i completamenti della chat che limita le risposte all'emissione di oggetti JSON validi, con uno schema JSON specificato dal chiamante.
Nome | Tipo | Descrizione |
---|---|---|
json_schema |
Definizione dello schema JSON richiesto nella risposta e metadati associati. |
|
type |
string:
json_schema |
Tipo di formato di risposta da usare per i completamenti della chat. |
ChatCompletionsResponseFormatJsonSchemaDefinition
Definizione dello schema JSON richiesto nella risposta e metadati associati.
Nome | Tipo | Valore predefinito | Descrizione |
---|---|---|---|
description |
string |
Descrizione del formato di risposta, usato dal modello di intelligenza artificiale per determinare come generare risposte in questo formato. |
|
name |
string |
Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. |
|
schema |
Definizione dello schema JSON |
||
strict |
boolean |
False |
Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output.
Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo |
ChatCompletionsResponseFormatText
Formato di risposta per i completamenti della chat che genera risposte di testo. Questo è il formato di risposta predefinito.
Nome | Tipo | Descrizione |
---|---|---|
type |
string:
text |
Tipo di formato di risposta da usare per i completamenti della chat. |
ChatCompletionsToolCall
Chiamata dello strumento di funzione richiesta dal modello di intelligenza artificiale.
Nome | Tipo | Descrizione |
---|---|---|
function |
Dettagli della chiamata di funzione richiesta dal modello di intelligenza artificiale. |
|
id |
string |
ID della chiamata allo strumento. |
type |
enum:
function |
Tipo di chiamata allo strumento. Attualmente è supportato solo |
ChatCompletionsToolDefinition
Definizione di uno strumento di completamento della chat che può chiamare una funzione.
Nome | Tipo | Descrizione |
---|---|---|
function |
Dettagli della definizione della funzione per lo strumento funzione. |
|
type |
enum:
function |
Tipo dello strumento. Attualmente è supportato solo |
ChatRequestAssistantMessage
Messaggio di chat di richiesta che rappresenta la risposta o l'azione dell'assistente.
Nome | Tipo | Descrizione |
---|---|---|
audio |
Audio generato da una risposta precedente in una conversazione a più turni. |
|
content |
string |
Contenuto del messaggio. |
role |
string:
assistant |
Ruolo della chat associato a questo messaggio. |
tool_calls |
Le chiamate dello strumento che devono essere risolte e che i relativi output sono stati aggiunti ai messaggi di input successivi per la richiesta di completamento della chat da risolvere come configurato. |
ChatRequestAudioReference
Riferimento a una risposta audio generata dal modello.
Nome | Tipo | Descrizione |
---|---|---|
id |
string |
Identificatore univoco per la risposta audio. Questo valore corrisponde all'ID di un completamento audio precedente. |
ChatRequestSystemMessage
Messaggio di chat di richiesta contenente istruzioni di sistema che influenzano il modo in cui il modello genererà una risposta di completamento della chat.
Nome | Tipo | Descrizione |
---|---|---|
content |
string |
Contenuto del messaggio di sistema. |
role |
string:
system |
Ruolo della chat associato a questo messaggio. |
ChatRequestToolMessage
Messaggio di chat di richiesta che rappresenta l'output richiesto da uno strumento configurato.
Nome | Tipo | Descrizione |
---|---|---|
content |
string |
Contenuto del messaggio. |
role |
string:
tool |
Ruolo della chat associato a questo messaggio. |
tool_call_id |
string |
ID della chiamata dello strumento risolto dal contenuto fornito. |
ChatRequestUserMessage
Messaggio di chat di richiesta che rappresenta l'input dell'utente all'assistente.
Nome | Tipo | Descrizione |
---|---|---|
content |
Contenuto del messaggio utente, con tipi di input disponibili che variano in base al modello selezionato. |
|
role |
string:
user |
Ruolo della chat associato a questo messaggio. |
ChatResponseMessage
Rappresentazione di un messaggio di chat ricevuto in una risposta.
Nome | Tipo | Descrizione |
---|---|---|
audio |
L'audio generato dal modello come risposta ai messaggi se il modello è configurato per generare audio. |
|
content |
string |
Contenuto del messaggio. |
role |
Ruolo della chat associato al messaggio. |
|
tool_calls |
Le chiamate dello strumento che devono essere risolte e che i relativi output sono stati aggiunti ai messaggi di input successivi per la richiesta di completamento della chat da risolvere come configurato. |
ChatRole
Descrizione dello scopo previsto di un messaggio all'interno di un'interazione di completamento della chat.
Valore | Descrizione |
---|---|
assistant |
Ruolo che fornisce risposte all'input richiesto dall'utente richiesto dal sistema. |
developer |
Ruolo che fornisce istruzioni al modello in ordine di priorità prima dei messaggi utente. |
system |
Ruolo che indica o imposta il comportamento dell'assistente. |
tool |
Ruolo che rappresenta l'attività dello strumento di estensione all'interno di un'operazione di completamento della chat. |
user |
Ruolo che fornisce l'input per i completamenti della chat. |
CompletionsFinishReason
Rappresentazione della modalità di conclusione di una risposta di completamento.
Valore | Descrizione |
---|---|
content_filter |
I completamenti hanno generato una risposta identificata come potenzialmente sensibile per i criteri di moderazione del contenuto. |
length |
I completamenti hanno esaurito i limiti dei token disponibili prima del completamento della generazione. |
stop |
I completamenti terminano normalmente e raggiungono la fine della generazione di token. |
tool_calls |
Il completamento è terminato con il modello che chiama uno strumento fornito per l'output. |
CompletionsUsage
Rappresentazione dei conteggi dei token elaborati per una richiesta di completamento. I conteggi considerano tutti i token tra prompt, scelte, alternative di scelta, best_of generazioni e altri consumer.
Nome | Tipo | Descrizione |
---|---|---|
completion_tokens |
integer (int32) |
Numero di token generati in tutte le emissioni di completamento. |
completion_tokens_details |
Suddivisione dei token usati in un completamento. |
|
prompt_tokens |
integer (int32) |
Numero di token nelle richieste fornite per la richiesta di completamento. |
prompt_tokens_details |
Suddivisione dei token usati nella cronologia prompt/chat. |
|
total_tokens |
integer (int32) |
Numero totale di token elaborati per la richiesta e la risposta dei completamenti. |
CompletionsUsageDetails
Suddivisione dei token usati in un completamento.
Nome | Tipo | Descrizione |
---|---|---|
audio_tokens |
integer (int32) |
Numero di token corrispondenti all'input audio. |
total_tokens |
integer (int32) |
Numero totale di token elaborati per la richiesta e la risposta dei completamenti. |
ExtraParameters
Controlla cosa accade se parametri aggiuntivi, non definiti dall'API REST, vengono passati nel payload della richiesta JSON.
Valore | Descrizione |
---|---|
drop |
Il servizio ignorerà (eliminare) parametri aggiuntivi nel payload della richiesta. Passerà solo i parametri noti al modello di intelligenza artificiale back-end. |
error |
Il servizio restituisce un errore se ha rilevato parametri aggiuntivi nel payload della richiesta. Si tratta dell'impostazione predefinita del servizio. |
pass-through |
Il servizio passerà parametri aggiuntivi al modello di intelligenza artificiale back-end. |
FunctionCall
Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.
Nome | Tipo | Descrizione |
---|---|---|
arguments |
string |
Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
name |
string |
Nome della funzione da chiamare. |
FunctionDefinition
La definizione di una funzione specificata dal chiamante che i completamenti della chat possono richiamare in risposta all'input dell'utente corrispondente.
Nome | Tipo | Descrizione |
---|---|---|
description |
string |
Descrizione delle operazioni che la funzione esegue. Il modello userà questa descrizione quando si seleziona la funzione e si interpretano i relativi parametri. |
name |
string |
Nome della funzione da chiamare. |
parameters |
I parametri accettati dalla funzione, descritti come oggetto Schema JSON. |
PromptUsageDetails
Suddivisione dei token usati nella cronologia prompt/chat.
Nome | Tipo | Descrizione |
---|---|---|
audio_tokens |
integer (int32) |
Numero di token corrispondenti all'input audio. |
cached_tokens |
integer (int32) |
Numero totale di token memorizzati nella cache. |