Condividi tramite


Get Chat Completions - Get Chat Completions

Ottiene i completamenti della chat per i messaggi di chat forniti. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti. Il metodo effettua una chiamata API REST alla route /chat/completions sull'endpoint specificato.

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview

Parametri dell'URI

Nome In Necessario Tipo Descrizione
resource
path True

string

Nome della risorsa di Servizi di intelligenza artificiale di Azure, ad esempio "my-resource"

api-version
query True

string

minLength: 1

Versione dell'API da usare per questa operazione.

Intestazione della richiesta

Nome Necessario Tipo Descrizione
extra-parameters

ExtraParameters

Controlla cosa accade se parametri aggiuntivi, non definiti dall'API REST, vengono passati nel payload della richiesta JSON. In questo modo viene impostata l'intestazione della richiesta HTTP extra-parameters.

Corpo della richiesta

Nome Necessario Tipo Descrizione
messages True ChatRequestMessage[]:

Raccolta di messaggi di contesto associati a questa richiesta di completamento della chat. L'utilizzo tipico inizia con un messaggio di chat per il ruolo Sistema che fornisce istruzioni per il comportamento dell'assistente, seguito da messaggi alternati tra i ruoli Utente e Assistente.

frequency_penalty

number (float)

minimum: -2
maximum: 2

Valore che influenza la probabilità che i token generati vengano visualizzati in base alla frequenza cumulativa nel testo generato. I valori positivi renderanno meno probabile che i token vengano visualizzati man mano che aumentano la frequenza e riducono la probabilità che il modello ripeti le stesse istruzioni verbatim. L'intervallo supportato è [-2, 2].

max_tokens

integer (int32)

minimum: 0

Numero massimo di token da generare.

modalities

ChatCompletionsModality[]

Le modalità che il modello può usare per la risposta di completamento della chat. La modalità predefinita è text. Se si indica una combinazione di modalità non supportata, viene generato un errore 422.

model

string

ID del modello di intelligenza artificiale specifico da usare, se nell'endpoint sono disponibili più modelli.

presence_penalty

number (float)

minimum: -2
maximum: 2

Valore che influenza la probabilità che i token generati vengano visualizzati in base alla loro presenza esistente nel testo generato. I valori positivi renderanno i token meno probabili quando esistono già e aumentano la probabilità che il modello restituisca nuovi argomenti. L'intervallo supportato è [-2, 2].

response_format ChatCompletionsResponseFormat:

Oggetto che specifica il formato che il modello deve restituire.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati, in modo da garantire che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.

seed

integer (int64)

Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico in modo che le richieste ripetute con lo stesso valore di inizializzazione e gli stessi parametri restituisca lo stesso risultato. Il determinismo non è garantito.

stop

string[]

Raccolta di sequenze testuali che termineranno la generazione dei completamenti.

stream

boolean

Valore che indica se i completamenti della chat devono essere trasmessi per questa richiesta.

temperature

number (float)

minimum: 0
maximum: 1

Temperatura di campionamento da utilizzare che controlla la creatività apparente dei completamenti generati. I valori più elevati renderanno l'output più casuale, mentre i valori inferiori renderanno i risultati più mirati e deterministici. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1].

tool_choice

Se specificato, il modello configurerà quale degli strumenti forniti può usare per la risposta di completamento della chat.

tools

ChatCompletionsToolDefinition[]

Un elenco di strumenti che il modello può richiedere di chiamare. Attualmente, solo le funzioni sono supportate come strumento. Il modello può rispondere con una richiesta di chiamata di funzione e fornire gli argomenti di input in formato JSON per tale funzione.

top_p

number (float)

minimum: 0
maximum: 1

Un'alternativa al campionamento con temperatura denominata campionamento del nucleo. Questo valore fa in modo che il modello consideri i risultati dei token con la massa di probabilità specificata. Ad esempio, un valore pari a 0,15 causerà solo i token che comprendono i primi 15% di massa di probabilità da considerare. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1].

Risposte

Nome Tipo Descrizione
200 OK

ChatCompletions

La richiesta ha avuto esito positivo.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Risposta di errore imprevista.

Intestazioni

x-ms-error-code: string

Sicurezza

api-key

Tipo: apiKey
In: header

OAuth2Auth

Tipo: oauth2
Flow: implicit
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Ambiti

Nome Descrizione
https://cognitiveservices.azure.com/.default

Esempio

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Esempio di richiesta

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Risposta di esempio

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Esempio di richiesta

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Risposta di esempio

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Esempio di richiesta

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Risposta di esempio

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Definizioni

Nome Descrizione
AudioContentFormat

Rappresentazione dei possibili formati audio per l'audio.

Azure.Core.Foundations.Error

Oggetto error.

Azure.Core.Foundations.ErrorResponse

Risposta contenente i dettagli dell'errore.

Azure.Core.Foundations.InnerError

Oggetto contenente informazioni più specifiche sull'errore. In base alle linee guida dell'API Microsoft One , https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.

ChatChoice

Rappresentazione del completamento di un singolo prompt come parte di una richiesta di completamento generale della chat. In genere, n scelte vengono generate per ogni prompt fornito con un valore predefinito pari a 1. I limiti dei token e altre impostazioni possono limitare il numero di scelte generate.

ChatCompletions

Rappresentazione dei dati di risposta da una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti.

ChatCompletionsAudio

Rappresentazione dell'audio generato dal modello.

ChatCompletionsModality

Le modalità che il modello può usare per la risposta di completamento della chat.

ChatCompletionsOptions

Informazioni di configurazione per una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti.

ChatCompletionsResponseFormatJsonObject

Formato di risposta per i completamenti della chat che limita le risposte alla creazione di oggetti JSON validi. Si noti che per abilitare la modalità JSON, alcuni modelli di intelligenza artificiale possono richiedere anche di indicare al modello di produrre JSON tramite un messaggio di sistema o utente.

ChatCompletionsResponseFormatJsonSchema

Formato di risposta per i completamenti della chat che limita le risposte all'emissione di oggetti JSON validi, con uno schema JSON specificato dal chiamante.

ChatCompletionsResponseFormatJsonSchemaDefinition

Definizione dello schema JSON richiesto nella risposta e metadati associati.

ChatCompletionsResponseFormatText

Formato di risposta per i completamenti della chat che genera risposte di testo. Questo è il formato di risposta predefinito.

ChatCompletionsToolCall

Chiamata dello strumento di funzione richiesta dal modello di intelligenza artificiale.

ChatCompletionsToolDefinition

Definizione di uno strumento di completamento della chat che può chiamare una funzione.

ChatRequestAssistantMessage

Messaggio di chat di richiesta che rappresenta la risposta o l'azione dell'assistente.

ChatRequestAudioReference

Riferimento a una risposta audio generata dal modello.

ChatRequestSystemMessage

Messaggio di chat di richiesta contenente istruzioni di sistema che influenzano il modo in cui il modello genererà una risposta di completamento della chat.

ChatRequestToolMessage

Messaggio di chat di richiesta che rappresenta l'output richiesto da uno strumento configurato.

ChatRequestUserMessage

Messaggio di chat di richiesta che rappresenta l'input dell'utente all'assistente.

ChatResponseMessage

Rappresentazione di un messaggio di chat ricevuto in una risposta.

ChatRole

Descrizione dello scopo previsto di un messaggio all'interno di un'interazione di completamento della chat.

CompletionsFinishReason

Rappresentazione della modalità di conclusione di una risposta di completamento.

CompletionsUsage

Rappresentazione dei conteggi dei token elaborati per una richiesta di completamento. I conteggi considerano tutti i token tra prompt, scelte, alternative di scelta, best_of generazioni e altri consumer.

CompletionsUsageDetails

Suddivisione dei token usati in un completamento.

ExtraParameters

Controlla cosa accade se parametri aggiuntivi, non definiti dall'API REST, vengono passati nel payload della richiesta JSON.

FunctionCall

Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.

FunctionDefinition

La definizione di una funzione specificata dal chiamante che i completamenti della chat possono richiamare in risposta all'input dell'utente corrispondente.

PromptUsageDetails

Suddivisione dei token usati nella cronologia prompt/chat.

AudioContentFormat

Rappresentazione dei possibili formati audio per l'audio.

Valore Descrizione
mp3

Specifica l'audio in formato MP3.

wav

Specifica l'audio in formato WAV.

Azure.Core.Foundations.Error

Oggetto error.

Nome Tipo Descrizione
code

string

Uno di un set definito dal server di codici di errore.

details

Azure.Core.Foundations.Error[]

Matrice di dettagli sugli errori specifici che hanno causato l'errore segnalato.

innererror

Azure.Core.Foundations.InnerError

Oggetto contenente informazioni più specifiche dell'oggetto corrente sull'errore.

message

string

Rappresentazione leggibile dell'errore.

target

string

Destinazione dell'errore.

Azure.Core.Foundations.ErrorResponse

Risposta contenente i dettagli dell'errore.

Nome Tipo Descrizione
error

Azure.Core.Foundations.Error

Oggetto error.

Azure.Core.Foundations.InnerError

Oggetto contenente informazioni più specifiche sull'errore. In base alle linee guida dell'API Microsoft One , https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.

Nome Tipo Descrizione
code

string

Uno di un set definito dal server di codici di errore.

innererror

Azure.Core.Foundations.InnerError

Errore interno.

ChatChoice

Rappresentazione del completamento di un singolo prompt come parte di una richiesta di completamento generale della chat. In genere, n scelte vengono generate per ogni prompt fornito con un valore predefinito pari a 1. I limiti dei token e altre impostazioni possono limitare il numero di scelte generate.

Nome Tipo Descrizione
finish_reason

CompletionsFinishReason

Il motivo per cui questa scelta di completamento della chat ha completato la generazione.

index

integer (int32)

Indice ordinato associato a questa scelta di completamento della chat.

message

ChatResponseMessage

Messaggio di chat per una richiesta di completamento della chat specificata.

ChatCompletions

Rappresentazione dei dati di risposta da una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti.

Nome Tipo Descrizione
choices

ChatChoice[]

Raccolta di scelte di completamento associate a questa risposta di completamento. In genere, n scelte vengono generate per ogni prompt fornito con un valore predefinito pari a 1. I limiti dei token e altre impostazioni possono limitare il numero di scelte generate.

created

integer (unixtime)

Il primo timestamp associato all'attività di generazione per questa risposta di completamento, rappresentato come secondi dall'inizio dell'epoca Unix di 00:00 il 1 gennaio 1970.

id

string

Identificatore univoco associato a questa risposta di completamento della chat.

model

string

Modello usato per il completamento della chat.

object enum:

chat.completion

Tipo di oggetto risposta, che è sempre chat.completion.

usage

CompletionsUsage

Informazioni sull'utilizzo per i token elaborati e generati come parte di questa operazione di completamento.

ChatCompletionsAudio

Rappresentazione dell'audio generato dal modello.

Nome Tipo Descrizione
data

string

Dati audio con codifica Base64

expires_at

integer (unixtime)

Timestamp Unix (in secondi) in cui scade la parte audio e non può più essere fatto riferimento dal relativo ID nelle conversazioni a più turni.

format

AudioContentFormat

Formato del contenuto audio. Se il formato non viene specificato, corrisponderà al formato usato nella richiesta audio di input.

id

string

Identificatore univoco per la risposta audio. Questo valore può essere usato nei messaggi della cronologia delle chat anziché passare l'oggetto audio completo.

transcript

string

Trascrizione del file audio.

ChatCompletionsModality

Le modalità che il modello può usare per la risposta di completamento della chat.

Valore Descrizione
audio

Il modello può generare audio.

text

Il modello può generare testo solo.

ChatCompletionsOptions

Informazioni di configurazione per una richiesta di completamento della chat. I completamenti supportano un'ampia gamma di attività e generano testo che continua da o "completa" i dati dei prompt forniti.

Nome Tipo Valore predefinito Descrizione
frequency_penalty

number (float)

minimum: -2
maximum: 2
0

Valore che influenza la probabilità che i token generati vengano visualizzati in base alla frequenza cumulativa nel testo generato. I valori positivi renderanno meno probabile che i token vengano visualizzati man mano che aumentano la frequenza e riducono la probabilità che il modello ripeti le stesse istruzioni verbatim. L'intervallo supportato è [-2, 2].

max_tokens

integer (int32)

minimum: 0

Numero massimo di token da generare.

messages ChatRequestMessage[]:

Raccolta di messaggi di contesto associati a questa richiesta di completamento della chat. L'utilizzo tipico inizia con un messaggio di chat per il ruolo Sistema che fornisce istruzioni per il comportamento dell'assistente, seguito da messaggi alternati tra i ruoli Utente e Assistente.

modalities

ChatCompletionsModality[]

Le modalità che il modello può usare per la risposta di completamento della chat. La modalità predefinita è text. Se si indica una combinazione di modalità non supportata, viene generato un errore 422.

model

string

ID del modello di intelligenza artificiale specifico da usare, se nell'endpoint sono disponibili più modelli.

presence_penalty

number (float)

minimum: -2
maximum: 2
0

Valore che influenza la probabilità che i token generati vengano visualizzati in base alla loro presenza esistente nel testo generato. I valori positivi renderanno i token meno probabili quando esistono già e aumentano la probabilità che il modello restituisca nuovi argomenti. L'intervallo supportato è [-2, 2].

response_format ChatCompletionsResponseFormat:

Oggetto che specifica il formato che il modello deve restituire.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati, in modo da garantire che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.

seed

integer (int64)

Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico in modo che le richieste ripetute con lo stesso valore di inizializzazione e gli stessi parametri restituisca lo stesso risultato. Il determinismo non è garantito.

stop

string[]

Raccolta di sequenze testuali che termineranno la generazione dei completamenti.

stream

boolean

Valore che indica se i completamenti della chat devono essere trasmessi per questa richiesta.

temperature

number (float)

minimum: 0
maximum: 1
0.7

Temperatura di campionamento da utilizzare che controlla la creatività apparente dei completamenti generati. I valori più elevati renderanno l'output più casuale, mentre i valori inferiori renderanno i risultati più mirati e deterministici. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1].

tool_choice

Se specificato, il modello configurerà quale degli strumenti forniti può usare per la risposta di completamento della chat.

tools

ChatCompletionsToolDefinition[]

Un elenco di strumenti che il modello può richiedere di chiamare. Attualmente, solo le funzioni sono supportate come strumento. Il modello può rispondere con una richiesta di chiamata di funzione e fornire gli argomenti di input in formato JSON per tale funzione.

top_p

number (float)

minimum: 0
maximum: 1
1

Un'alternativa al campionamento con temperatura denominata campionamento del nucleo. Questo valore fa in modo che il modello consideri i risultati dei token con la massa di probabilità specificata. Ad esempio, un valore pari a 0,15 causerà solo i token che comprendono i primi 15% di massa di probabilità da considerare. Non è consigliabile modificare la temperatura e top_p per la stessa richiesta di completamento dell'interazione di queste due impostazioni è difficile da prevedere. L'intervallo supportato è [0, 1].

ChatCompletionsResponseFormatJsonObject

Formato di risposta per i completamenti della chat che limita le risposte alla creazione di oggetti JSON validi. Si noti che per abilitare la modalità JSON, alcuni modelli di intelligenza artificiale possono richiedere anche di indicare al modello di produrre JSON tramite un messaggio di sistema o utente.

Nome Tipo Descrizione
type string:

json_object

Tipo di formato di risposta da usare per i completamenti della chat.

ChatCompletionsResponseFormatJsonSchema

Formato di risposta per i completamenti della chat che limita le risposte all'emissione di oggetti JSON validi, con uno schema JSON specificato dal chiamante.

Nome Tipo Descrizione
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

Definizione dello schema JSON richiesto nella risposta e metadati associati.

type string:

json_schema

Tipo di formato di risposta da usare per i completamenti della chat.

ChatCompletionsResponseFormatJsonSchemaDefinition

Definizione dello schema JSON richiesto nella risposta e metadati associati.

Nome Tipo Valore predefinito Descrizione
description

string

Descrizione del formato di risposta, usato dal modello di intelligenza artificiale per determinare come generare risposte in questo formato.

name

string

Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64.

schema

Definizione dello schema JSON

strict

boolean

False

Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo schema. È supportato solo un subset di schema JSON quando strict è true.

ChatCompletionsResponseFormatText

Formato di risposta per i completamenti della chat che genera risposte di testo. Questo è il formato di risposta predefinito.

Nome Tipo Descrizione
type string:

text

Tipo di formato di risposta da usare per i completamenti della chat.

ChatCompletionsToolCall

Chiamata dello strumento di funzione richiesta dal modello di intelligenza artificiale.

Nome Tipo Descrizione
function

FunctionCall

Dettagli della chiamata di funzione richiesta dal modello di intelligenza artificiale.

id

string

ID della chiamata allo strumento.

type enum:

function

Tipo di chiamata allo strumento. Attualmente è supportato solo function.

ChatCompletionsToolDefinition

Definizione di uno strumento di completamento della chat che può chiamare una funzione.

Nome Tipo Descrizione
function

FunctionDefinition

Dettagli della definizione della funzione per lo strumento funzione.

type enum:

function

Tipo dello strumento. Attualmente è supportato solo function.

ChatRequestAssistantMessage

Messaggio di chat di richiesta che rappresenta la risposta o l'azione dell'assistente.

Nome Tipo Descrizione
audio

ChatRequestAudioReference

Audio generato da una risposta precedente in una conversazione a più turni.

content

string

Contenuto del messaggio.

role string:

assistant

Ruolo della chat associato a questo messaggio.

tool_calls

ChatCompletionsToolCall[]

Le chiamate dello strumento che devono essere risolte e che i relativi output sono stati aggiunti ai messaggi di input successivi per la richiesta di completamento della chat da risolvere come configurato.

ChatRequestAudioReference

Riferimento a una risposta audio generata dal modello.

Nome Tipo Descrizione
id

string

Identificatore univoco per la risposta audio. Questo valore corrisponde all'ID di un completamento audio precedente.

ChatRequestSystemMessage

Messaggio di chat di richiesta contenente istruzioni di sistema che influenzano il modo in cui il modello genererà una risposta di completamento della chat.

Nome Tipo Descrizione
content

string

Contenuto del messaggio di sistema.

role string:

system

Ruolo della chat associato a questo messaggio.

ChatRequestToolMessage

Messaggio di chat di richiesta che rappresenta l'output richiesto da uno strumento configurato.

Nome Tipo Descrizione
content

string

Contenuto del messaggio.

role string:

tool

Ruolo della chat associato a questo messaggio.

tool_call_id

string

ID della chiamata dello strumento risolto dal contenuto fornito.

ChatRequestUserMessage

Messaggio di chat di richiesta che rappresenta l'input dell'utente all'assistente.

Nome Tipo Descrizione
content

Contenuto del messaggio utente, con tipi di input disponibili che variano in base al modello selezionato.

role string:

user

Ruolo della chat associato a questo messaggio.

ChatResponseMessage

Rappresentazione di un messaggio di chat ricevuto in una risposta.

Nome Tipo Descrizione
audio

ChatCompletionsAudio

L'audio generato dal modello come risposta ai messaggi se il modello è configurato per generare audio.

content

string

Contenuto del messaggio.

role

ChatRole

Ruolo della chat associato al messaggio.

tool_calls

ChatCompletionsToolCall[]

Le chiamate dello strumento che devono essere risolte e che i relativi output sono stati aggiunti ai messaggi di input successivi per la richiesta di completamento della chat da risolvere come configurato.

ChatRole

Descrizione dello scopo previsto di un messaggio all'interno di un'interazione di completamento della chat.

Valore Descrizione
assistant

Ruolo che fornisce risposte all'input richiesto dall'utente richiesto dal sistema.

developer

Ruolo che fornisce istruzioni al modello in ordine di priorità prima dei messaggi utente.

system

Ruolo che indica o imposta il comportamento dell'assistente.

tool

Ruolo che rappresenta l'attività dello strumento di estensione all'interno di un'operazione di completamento della chat.

user

Ruolo che fornisce l'input per i completamenti della chat.

CompletionsFinishReason

Rappresentazione della modalità di conclusione di una risposta di completamento.

Valore Descrizione
content_filter

I completamenti hanno generato una risposta identificata come potenzialmente sensibile per i criteri di moderazione del contenuto.

length

I completamenti hanno esaurito i limiti dei token disponibili prima del completamento della generazione.

stop

I completamenti terminano normalmente e raggiungono la fine della generazione di token.

tool_calls

Il completamento è terminato con il modello che chiama uno strumento fornito per l'output.

CompletionsUsage

Rappresentazione dei conteggi dei token elaborati per una richiesta di completamento. I conteggi considerano tutti i token tra prompt, scelte, alternative di scelta, best_of generazioni e altri consumer.

Nome Tipo Descrizione
completion_tokens

integer (int32)

Numero di token generati in tutte le emissioni di completamento.

completion_tokens_details

CompletionsUsageDetails

Suddivisione dei token usati in un completamento.

prompt_tokens

integer (int32)

Numero di token nelle richieste fornite per la richiesta di completamento.

prompt_tokens_details

PromptUsageDetails

Suddivisione dei token usati nella cronologia prompt/chat.

total_tokens

integer (int32)

Numero totale di token elaborati per la richiesta e la risposta dei completamenti.

CompletionsUsageDetails

Suddivisione dei token usati in un completamento.

Nome Tipo Descrizione
audio_tokens

integer (int32)

Numero di token corrispondenti all'input audio.

total_tokens

integer (int32)

Numero totale di token elaborati per la richiesta e la risposta dei completamenti.

ExtraParameters

Controlla cosa accade se parametri aggiuntivi, non definiti dall'API REST, vengono passati nel payload della richiesta JSON.

Valore Descrizione
drop

Il servizio ignorerà (eliminare) parametri aggiuntivi nel payload della richiesta. Passerà solo i parametri noti al modello di intelligenza artificiale back-end.

error

Il servizio restituisce un errore se ha rilevato parametri aggiuntivi nel payload della richiesta. Si tratta dell'impostazione predefinita del servizio.

pass-through

Il servizio passerà parametri aggiuntivi al modello di intelligenza artificiale back-end.

FunctionCall

Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.

Nome Tipo Descrizione
arguments

string

Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.

name

string

Nome della funzione da chiamare.

FunctionDefinition

La definizione di una funzione specificata dal chiamante che i completamenti della chat possono richiamare in risposta all'input dell'utente corrispondente.

Nome Tipo Descrizione
description

string

Descrizione delle operazioni che la funzione esegue. Il modello userà questa descrizione quando si seleziona la funzione e si interpretano i relativi parametri.

name

string

Nome della funzione da chiamare.

parameters

I parametri accettati dalla funzione, descritti come oggetto Schema JSON.

PromptUsageDetails

Suddivisione dei token usati nella cronologia prompt/chat.

Nome Tipo Descrizione
audio_tokens

integer (int32)

Numero di token corrispondenti all'input audio.

cached_tokens

integer (int32)

Numero totale di token memorizzati nella cache.