Get Chat Completions - Get Chat Completions
Obtém conclusões de chat para as mensagens de chat fornecidas.
As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos. O método faz uma chamada à API REST para a rota /chat/completions
no ponto de extremidade especificado.
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Description |
---|---|---|---|---|
resource
|
path | True |
string |
O nome do recurso dos Serviços de IA do Azure, por exemplo, 'my-resource' |
api-version
|
query | True |
string minLength: 1 |
A versão da API a ser usada para esta operação. |
Cabeçalho da solicitação
Nome | Obrigatório | Tipo | Description |
---|---|---|---|
extra-parameters |
Controla o que acontece se parâmetros extras, indefinidos pela API REST, forem passados no conteúdo da solicitação JSON.
Isso define o cabeçalho de solicitação HTTP |
Corpo da solicitação
Nome | Obrigatório | Tipo | Description |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de chat para a função Sistema que fornece instruções para o comportamento do assistente, seguido por mensagens alternadas entre as funções Usuário e Assistente. |
frequency_penalty |
number (float) minimum: -2maximum: 2 |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que a frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções verbatim. O intervalo com suporte é [-2, 2]. |
|
max_tokens |
integer (int32) minimum: 0 |
O número máximo de tokens a serem gerados. |
|
modalities |
As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat. A modalidade padrão é |
||
model |
string |
ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos. O intervalo com suporte é [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Um objeto que especifica o formato que o modelo deve gerar. A configuração para A configuração para
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se |
|
seed |
integer (int64) |
Se especificado, o sistema fará um esforço melhor para amostrar deterministicamente, de modo que solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado. O determinismo não é garantido. |
|
stop |
string[] |
Uma coleção de sequências textuais que encerrará a geração de conclusões. |
|
stream |
boolean |
Um valor que indica se as conclusões de chat devem ser transmitidas para essa solicitação. |
|
temperature |
number (float) minimum: 0maximum: 1 |
A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1]. |
|
tool_choice |
Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat. |
||
tools |
Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, há suporte apenas para funções como uma ferramenta. O modelo pode ser uma resposta com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função. |
||
top_p |
number (float) minimum: 0maximum: 1 |
Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados dos tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15 principais% de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1]. |
Respostas
Nome | Tipo | Description |
---|---|---|
200 OK |
A solicitação foi bem-sucedida. |
|
Other Status Codes |
Uma resposta de erro inesperada. Cabeçalhos x-ms-error-code: string |
Segurança
api-key
Tipo:
apiKey
Em:
header
OAuth2Auth
Tipo:
oauth2
Flow:
implicit
URL de Autorização:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopos
Nome | Description |
---|---|
https://cognitiveservices.azure.com/.default |
Exemplos
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Solicitação de exemplo
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Resposta de exemplo
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Solicitação de exemplo
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Resposta de exemplo
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Solicitação de exemplo
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Resposta de exemplo
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definições
Nome | Description |
---|---|
Audio |
Uma representação dos possíveis formatos de áudio para áudio. |
Azure. |
O objeto de erro. |
Azure. |
Uma resposta que contém detalhes do erro. |
Azure. |
Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors. |
Chat |
A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusões de chat.
Geralmente, |
Chat |
Representação dos dados de resposta de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos. |
Chat |
Uma representação do áudio gerado pelo modelo. |
Chat |
As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat. |
Chat |
As informações de configuração de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos. |
Chat |
Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem de usuário. |
Chat |
Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador. |
Chat |
A definição do esquema JSON necessário na resposta e os metadados associados. |
Chat |
Um formato de resposta para Conclusões de Chat que emite respostas de texto. Esse é o formato de resposta padrão. |
Chat |
Uma chamada de ferramenta de função solicitada pelo modelo de IA. |
Chat |
A definição de uma ferramenta de conclusão de chat que pode chamar uma função. |
Chat |
Uma mensagem de chat de solicitação que representa a resposta ou a ação do assistente. |
Chat |
Uma referência a uma resposta de áudio gerada pelo modelo. |
Chat |
Uma mensagem de chat de solicitação que contém instruções do sistema que influenciam como o modelo gerará uma resposta de conclusões de chat. |
Chat |
Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada. |
Chat |
Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente. |
Chat |
Uma representação de uma mensagem de chat como recebida em uma resposta. |
Chat |
Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat. |
Completions |
Representação da maneira como uma resposta de conclusão foi concluída. |
Completions |
Representação das contagens de tokens processadas para uma solicitação de conclusão. As contagens consideram todos os tokens entre prompts, opções, alternativas de escolha, best_of gerações e outros consumidores. |
Completions |
Um detalhamento dos tokens usados em uma conclusão. |
Extra |
Controla o que acontece se parâmetros extras, indefinidos pela API REST, forem passados no conteúdo da solicitação JSON. |
Function |
O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Function |
A definição de uma função especificada pelo chamador que as conclusões do chat podem invocar em resposta à entrada do usuário correspondente. |
Prompt |
Um detalhamento dos tokens usados no histórico de prompt/chat. |
AudioContentFormat
Uma representação dos possíveis formatos de áudio para áudio.
Valor | Description |
---|---|
mp3 |
Especifica o áudio no formato MP3. |
wav |
Especifica o áudio no formato WAV. |
Azure.Core.Foundations.Error
O objeto de erro.
Nome | Tipo | Description |
---|---|---|
code |
string |
Um de um conjunto definido pelo servidor de códigos de erro. |
details |
Uma matriz de detalhes sobre erros específicos que levaram a esse erro relatado. |
|
innererror |
Um objeto que contém informações mais específicas do que o objeto atual sobre o erro. |
|
message |
string |
Uma representação legível pelo ser humano do erro. |
target |
string |
O destino do erro. |
Azure.Core.Foundations.ErrorResponse
Uma resposta que contém detalhes do erro.
Nome | Tipo | Description |
---|---|---|
error |
O objeto de erro. |
Azure.Core.Foundations.InnerError
Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.
Nome | Tipo | Description |
---|---|---|
code |
string |
Um de um conjunto definido pelo servidor de códigos de erro. |
innererror |
Erro interno. |
ChatChoice
A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusões de chat.
Geralmente, n
opções são geradas por prompt fornecido com um valor padrão de 1.
Limites de token e outras configurações podem limitar o número de opções geradas.
Nome | Tipo | Description |
---|---|---|
finish_reason |
O motivo pelo qual essa escolha de conclusões de chat concluiu sua geração. |
|
index |
integer (int32) |
O índice ordenado associado a essa opção de conclusões de chat. |
message |
A mensagem de chat para um determinado prompt de conclusões de chat. |
ChatCompletions
Representação dos dados de resposta de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos.
Nome | Tipo | Description |
---|---|---|
choices |
A coleção de opções de conclusões associadas a essa resposta de conclusões.
Geralmente, |
|
created |
integer (unixtime) |
O primeiro carimbo de data/hora associado à atividade de geração para essa resposta de conclusões, representado como segundos desde o início da época unix de 00:00 em 1 de janeiro de 1970. |
id |
string |
Um identificador exclusivo associado a essa resposta de conclusão de chat. |
model |
string |
O modelo usado para a conclusão do chat. |
object |
enum:
chat. |
O tipo de objeto de resposta, que é sempre |
usage |
Informações de uso para tokens processados e gerados como parte dessa operação de conclusão. |
ChatCompletionsAudio
Uma representação do áudio gerado pelo modelo.
Nome | Tipo | Description |
---|---|---|
data |
string |
Dados de áudio codificados em Base64 |
expires_at |
integer (unixtime) |
O carimbo de data/hora unix (em segundos) no qual a peça de áudio expira e não pode ser mais referenciada por sua ID em conversas de vários turnos. |
format |
O formato do conteúdo de áudio. Se o formato não for fornecido, ele corresponderá ao formato usado na solicitação de áudio de entrada. |
|
id |
string |
Identificador exclusivo para a resposta de áudio. Esse valor pode ser usado em mensagens de histórico de chat em vez de passar o objeto de áudio completo. |
transcript |
string |
A transcrição do arquivo de áudio. |
ChatCompletionsModality
As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat.
Valor | Description |
---|---|
audio |
O modelo tem permissão para gerar áudio. |
text |
O modelo só tem permissão para gerar texto. |
ChatCompletionsOptions
As informações de configuração de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que a frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções verbatim. O intervalo com suporte é [-2, 2]. |
max_tokens |
integer (int32) minimum: 0 |
O número máximo de tokens a serem gerados. |
|
messages | ChatRequestMessage[]: |
A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de chat para a função Sistema que fornece instruções para o comportamento do assistente, seguido por mensagens alternadas entre as funções Usuário e Assistente. |
|
modalities |
As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat. A modalidade padrão é |
||
model |
string |
ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos. O intervalo com suporte é [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Um objeto que especifica o formato que o modelo deve gerar. A configuração para A configuração para
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se |
|
seed |
integer (int64) |
Se especificado, o sistema fará um esforço melhor para amostrar deterministicamente, de modo que solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado. O determinismo não é garantido. |
|
stop |
string[] |
Uma coleção de sequências textuais que encerrará a geração de conclusões. |
|
stream |
boolean |
Um valor que indica se as conclusões de chat devem ser transmitidas para essa solicitação. |
|
temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1]. |
tool_choice |
Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat. |
||
tools |
Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, há suporte apenas para funções como uma ferramenta. O modelo pode ser uma resposta com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função. |
||
top_p |
number (float) minimum: 0maximum: 1 |
1 |
Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados dos tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15 principais% de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem de usuário.
Nome | Tipo | Description |
---|---|---|
type |
string:
json_object |
O tipo de formato de resposta a ser usado para conclusões de chat. |
ChatCompletionsResponseFormatJsonSchema
Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador.
Nome | Tipo | Description |
---|---|---|
json_schema |
A definição do esquema JSON necessário na resposta e os metadados associados. |
|
type |
string:
json_schema |
O tipo de formato de resposta a ser usado para conclusões de chat. |
ChatCompletionsResponseFormatJsonSchemaDefinition
A definição do esquema JSON necessário na resposta e os metadados associados.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
description |
string |
Uma descrição do formato de resposta, usada pelo modelo de IA para determinar como gerar respostas nesse formato. |
|
name |
string |
O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
|
schema |
A definição do esquema JSON |
||
strict |
boolean |
False |
Se deseja habilitar a adesão estrita do esquema ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no campo |
ChatCompletionsResponseFormatText
Um formato de resposta para Conclusões de Chat que emite respostas de texto. Esse é o formato de resposta padrão.
Nome | Tipo | Description |
---|---|---|
type |
string:
text |
O tipo de formato de resposta a ser usado para conclusões de chat. |
ChatCompletionsToolCall
Uma chamada de ferramenta de função solicitada pelo modelo de IA.
Nome | Tipo | Description |
---|---|---|
function |
Os detalhes da chamada de função solicitada pelo modelo de IA. |
|
id |
string |
A ID da chamada da ferramenta. |
type |
enum:
function |
O tipo de chamada de ferramenta. Atualmente, há suporte apenas |
ChatCompletionsToolDefinition
A definição de uma ferramenta de conclusão de chat que pode chamar uma função.
Nome | Tipo | Description |
---|---|---|
function |
Os detalhes da definição de função para a ferramenta de função. |
|
type |
enum:
function |
O tipo da ferramenta. Atualmente, há suporte apenas |
ChatRequestAssistantMessage
Uma mensagem de chat de solicitação que representa a resposta ou a ação do assistente.
Nome | Tipo | Description |
---|---|---|
audio |
O áudio gerado por uma resposta anterior em uma conversa de vários turnos. |
|
content |
string |
O conteúdo da mensagem. |
role |
string:
assistant |
A função de chat associada a essa mensagem. |
tool_calls |
As chamadas de ferramenta que devem ser resolvidas e ter suas saídas anexadas às mensagens de entrada subsequentes para a solicitação de conclusões de chat a serem resolvidas como configuradas. |
ChatRequestAudioReference
Uma referência a uma resposta de áudio gerada pelo modelo.
Nome | Tipo | Description |
---|---|---|
id |
string |
Identificador exclusivo para a resposta de áudio. Esse valor corresponde à ID de uma conclusão de áudio anterior. |
ChatRequestSystemMessage
Uma mensagem de chat de solicitação que contém instruções do sistema que influenciam como o modelo gerará uma resposta de conclusões de chat.
Nome | Tipo | Description |
---|---|---|
content |
string |
O conteúdo da mensagem do sistema. |
role |
string:
system |
A função de chat associada a essa mensagem. |
ChatRequestToolMessage
Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada.
Nome | Tipo | Description |
---|---|---|
content |
string |
O conteúdo da mensagem. |
role |
string:
tool |
A função de chat associada a essa mensagem. |
tool_call_id |
string |
A ID da chamada de ferramenta resolvida pelo conteúdo fornecido. |
ChatRequestUserMessage
Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente.
Nome | Tipo | Description |
---|---|---|
content |
O conteúdo da mensagem do usuário, com tipos de entrada disponíveis variando por modelo selecionado. |
|
role |
string:
user |
A função de chat associada a essa mensagem. |
ChatResponseMessage
Uma representação de uma mensagem de chat como recebida em uma resposta.
Nome | Tipo | Description |
---|---|---|
audio |
O áudio gerado pelo modelo como uma resposta às mensagens se o modelo estiver configurado para gerar áudio. |
|
content |
string |
O conteúdo da mensagem. |
role |
A função de chat associada à mensagem. |
|
tool_calls |
As chamadas de ferramenta que devem ser resolvidas e ter suas saídas anexadas às mensagens de entrada subsequentes para a solicitação de conclusões de chat a serem resolvidas como configuradas. |
ChatRole
Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat.
Valor | Description |
---|---|
assistant |
A função que fornece respostas para entradas orientadas pelo sistema e solicitadas pelo usuário. |
developer |
A função que fornece instruções para o modelo priorizado antes das mensagens do usuário. |
system |
A função que instrui ou define o comportamento do assistente. |
tool |
A função que representa a atividade da ferramenta de extensão dentro de uma operação de conclusão de chat. |
user |
A função que fornece entrada para conclusões de chat. |
CompletionsFinishReason
Representação da maneira como uma resposta de conclusão foi concluída.
Valor | Description |
---|---|
content_filter |
As conclusões geraram uma resposta que foi identificada como potencialmente sensível por políticas de moderação de conteúdo. |
length |
As conclusões esgotaram os limites de token disponíveis antes que a geração pudesse ser concluída. |
stop |
As conclusões terminaram normalmente e atingiram o fim da geração de token. |
tool_calls |
A conclusão terminou com o modelo chamando uma ferramenta fornecida para saída. |
CompletionsUsage
Representação das contagens de tokens processadas para uma solicitação de conclusão. As contagens consideram todos os tokens entre prompts, opções, alternativas de escolha, best_of gerações e outros consumidores.
Nome | Tipo | Description |
---|---|---|
completion_tokens |
integer (int32) |
O número de tokens gerados em todas as emissões de conclusão. |
completion_tokens_details |
Divisão de tokens usados em uma conclusão. |
|
prompt_tokens |
integer (int32) |
O número de tokens nos prompts fornecidos para a solicitação de conclusão. |
prompt_tokens_details |
Divisão de tokens usados no histórico de prompt/chat. |
|
total_tokens |
integer (int32) |
O número total de tokens processados para a solicitação e a resposta de conclusões. |
CompletionsUsageDetails
Um detalhamento dos tokens usados em uma conclusão.
Nome | Tipo | Description |
---|---|---|
audio_tokens |
integer (int32) |
O número de tokens correspondentes à entrada de áudio. |
total_tokens |
integer (int32) |
O número total de tokens processados para a solicitação e a resposta de conclusões. |
ExtraParameters
Controla o que acontece se parâmetros extras, indefinidos pela API REST, forem passados no conteúdo da solicitação JSON.
Valor | Description |
---|---|
drop |
O serviço ignorará (soltar) parâmetros extras no conteúdo da solicitação. Ele só passará os parâmetros conhecidos para o modelo de IA de back-end. |
error |
O serviço errou se detectou parâmetros extras no conteúdo da solicitação. Esse é o padrão do serviço. |
pass-through |
O serviço passará parâmetros extras para o modelo de IA de back-end. |
FunctionCall
O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Nome | Tipo | Description |
---|---|---|
arguments |
string |
Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name |
string |
O nome da função a ser chamada. |
FunctionDefinition
A definição de uma função especificada pelo chamador que as conclusões do chat podem invocar em resposta à entrada do usuário correspondente.
Nome | Tipo | Description |
---|---|---|
description |
string |
Uma descrição do que a função faz. O modelo usará essa descrição ao selecionar a função e interpretar seus parâmetros. |
name |
string |
O nome da função a ser chamada. |
parameters |
Os parâmetros que a função aceita, descritos como um objeto de esquema JSON. |
PromptUsageDetails
Um detalhamento dos tokens usados no histórico de prompt/chat.
Nome | Tipo | Description |
---|---|---|
audio_tokens |
integer (int32) |
O número de tokens correspondentes à entrada de áudio. |
cached_tokens |
integer (int32) |
O número total de tokens armazenados em cache. |