Compartilhar via


Get Chat Completions - Get Chat Completions

Obtém conclusões de chat para as mensagens de chat fornecidas. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos. O método faz uma chamada à API REST para a rota /chat/completions no ponto de extremidade especificado.

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview

Parâmetros de URI

Nome Em Obrigatório Tipo Description
resource
path True

string

O nome do recurso dos Serviços de IA do Azure, por exemplo, 'my-resource'

api-version
query True

string

minLength: 1

A versão da API a ser usada para esta operação.

Cabeçalho da solicitação

Nome Obrigatório Tipo Description
extra-parameters

ExtraParameters

Controla o que acontece se parâmetros extras, indefinidos pela API REST, forem passados no conteúdo da solicitação JSON. Isso define o cabeçalho de solicitação HTTP extra-parameters.

Corpo da solicitação

Nome Obrigatório Tipo Description
messages True ChatRequestMessage[]:

A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de chat para a função Sistema que fornece instruções para o comportamento do assistente, seguido por mensagens alternadas entre as funções Usuário e Assistente.

frequency_penalty

number (float)

minimum: -2
maximum: 2

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que a frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções verbatim. O intervalo com suporte é [-2, 2].

max_tokens

integer (int32)

minimum: 0

O número máximo de tokens a serem gerados.

modalities

ChatCompletionsModality[]

As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat. A modalidade padrão é text. Indicar uma combinação de modalidade sem suporte resulta em um erro 422.

model

string

ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade.

presence_penalty

number (float)

minimum: -2
maximum: 2

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos. O intervalo com suporte é [-2, 2].

response_format ChatCompletionsResponseFormat:

Um objeto que especifica o formato que o modelo deve gerar.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.

seed

integer (int64)

Se especificado, o sistema fará um esforço melhor para amostrar deterministicamente, de modo que solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado. O determinismo não é garantido.

stop

string[]

Uma coleção de sequências textuais que encerrará a geração de conclusões.

stream

boolean

Um valor que indica se as conclusões de chat devem ser transmitidas para essa solicitação.

temperature

number (float)

minimum: 0
maximum: 1

A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1].

tool_choice

Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat.

tools

ChatCompletionsToolDefinition[]

Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, há suporte apenas para funções como uma ferramenta. O modelo pode ser uma resposta com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função.

top_p

number (float)

minimum: 0
maximum: 1

Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados dos tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15 principais% de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1].

Respostas

Nome Tipo Description
200 OK

ChatCompletions

A solicitação foi bem-sucedida.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Uma resposta de erro inesperada.

Cabeçalhos

x-ms-error-code: string

Segurança

api-key

Tipo: apiKey
Em: header

OAuth2Auth

Tipo: oauth2
Flow: implicit
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Escopos

Nome Description
https://cognitiveservices.azure.com/.default

Exemplos

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Solicitação de exemplo

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Resposta de exemplo

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Solicitação de exemplo

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Resposta de exemplo

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Solicitação de exemplo

POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Resposta de exemplo

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Definições

Nome Description
AudioContentFormat

Uma representação dos possíveis formatos de áudio para áudio.

Azure.Core.Foundations.Error

O objeto de erro.

Azure.Core.Foundations.ErrorResponse

Uma resposta que contém detalhes do erro.

Azure.Core.Foundations.InnerError

Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.

ChatChoice

A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusões de chat. Geralmente, n opções são geradas por prompt fornecido com um valor padrão de 1. Limites de token e outras configurações podem limitar o número de opções geradas.

ChatCompletions

Representação dos dados de resposta de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos.

ChatCompletionsAudio

Uma representação do áudio gerado pelo modelo.

ChatCompletionsModality

As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat.

ChatCompletionsOptions

As informações de configuração de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos.

ChatCompletionsResponseFormatJsonObject

Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem de usuário.

ChatCompletionsResponseFormatJsonSchema

Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador.

ChatCompletionsResponseFormatJsonSchemaDefinition

A definição do esquema JSON necessário na resposta e os metadados associados.

ChatCompletionsResponseFormatText

Um formato de resposta para Conclusões de Chat que emite respostas de texto. Esse é o formato de resposta padrão.

ChatCompletionsToolCall

Uma chamada de ferramenta de função solicitada pelo modelo de IA.

ChatCompletionsToolDefinition

A definição de uma ferramenta de conclusão de chat que pode chamar uma função.

ChatRequestAssistantMessage

Uma mensagem de chat de solicitação que representa a resposta ou a ação do assistente.

ChatRequestAudioReference

Uma referência a uma resposta de áudio gerada pelo modelo.

ChatRequestSystemMessage

Uma mensagem de chat de solicitação que contém instruções do sistema que influenciam como o modelo gerará uma resposta de conclusões de chat.

ChatRequestToolMessage

Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada.

ChatRequestUserMessage

Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente.

ChatResponseMessage

Uma representação de uma mensagem de chat como recebida em uma resposta.

ChatRole

Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat.

CompletionsFinishReason

Representação da maneira como uma resposta de conclusão foi concluída.

CompletionsUsage

Representação das contagens de tokens processadas para uma solicitação de conclusão. As contagens consideram todos os tokens entre prompts, opções, alternativas de escolha, best_of gerações e outros consumidores.

CompletionsUsageDetails

Um detalhamento dos tokens usados em uma conclusão.

ExtraParameters

Controla o que acontece se parâmetros extras, indefinidos pela API REST, forem passados no conteúdo da solicitação JSON.

FunctionCall

O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

FunctionDefinition

A definição de uma função especificada pelo chamador que as conclusões do chat podem invocar em resposta à entrada do usuário correspondente.

PromptUsageDetails

Um detalhamento dos tokens usados no histórico de prompt/chat.

AudioContentFormat

Uma representação dos possíveis formatos de áudio para áudio.

Valor Description
mp3

Especifica o áudio no formato MP3.

wav

Especifica o áudio no formato WAV.

Azure.Core.Foundations.Error

O objeto de erro.

Nome Tipo Description
code

string

Um de um conjunto definido pelo servidor de códigos de erro.

details

Azure.Core.Foundations.Error[]

Uma matriz de detalhes sobre erros específicos que levaram a esse erro relatado.

innererror

Azure.Core.Foundations.InnerError

Um objeto que contém informações mais específicas do que o objeto atual sobre o erro.

message

string

Uma representação legível pelo ser humano do erro.

target

string

O destino do erro.

Azure.Core.Foundations.ErrorResponse

Uma resposta que contém detalhes do erro.

Nome Tipo Description
error

Azure.Core.Foundations.Error

O objeto de erro.

Azure.Core.Foundations.InnerError

Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.

Nome Tipo Description
code

string

Um de um conjunto definido pelo servidor de códigos de erro.

innererror

Azure.Core.Foundations.InnerError

Erro interno.

ChatChoice

A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusões de chat. Geralmente, n opções são geradas por prompt fornecido com um valor padrão de 1. Limites de token e outras configurações podem limitar o número de opções geradas.

Nome Tipo Description
finish_reason

CompletionsFinishReason

O motivo pelo qual essa escolha de conclusões de chat concluiu sua geração.

index

integer (int32)

O índice ordenado associado a essa opção de conclusões de chat.

message

ChatResponseMessage

A mensagem de chat para um determinado prompt de conclusões de chat.

ChatCompletions

Representação dos dados de resposta de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos.

Nome Tipo Description
choices

ChatChoice[]

A coleção de opções de conclusões associadas a essa resposta de conclusões. Geralmente, n opções são geradas por prompt fornecido com um valor padrão de 1. Limites de token e outras configurações podem limitar o número de opções geradas.

created

integer (unixtime)

O primeiro carimbo de data/hora associado à atividade de geração para essa resposta de conclusões, representado como segundos desde o início da época unix de 00:00 em 1 de janeiro de 1970.

id

string

Um identificador exclusivo associado a essa resposta de conclusão de chat.

model

string

O modelo usado para a conclusão do chat.

object enum:

chat.completion

O tipo de objeto de resposta, que é sempre chat.completion.

usage

CompletionsUsage

Informações de uso para tokens processados e gerados como parte dessa operação de conclusão.

ChatCompletionsAudio

Uma representação do áudio gerado pelo modelo.

Nome Tipo Description
data

string

Dados de áudio codificados em Base64

expires_at

integer (unixtime)

O carimbo de data/hora unix (em segundos) no qual a peça de áudio expira e não pode ser mais referenciada por sua ID em conversas de vários turnos.

format

AudioContentFormat

O formato do conteúdo de áudio. Se o formato não for fornecido, ele corresponderá ao formato usado na solicitação de áudio de entrada.

id

string

Identificador exclusivo para a resposta de áudio. Esse valor pode ser usado em mensagens de histórico de chat em vez de passar o objeto de áudio completo.

transcript

string

A transcrição do arquivo de áudio.

ChatCompletionsModality

As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat.

Valor Description
audio

O modelo tem permissão para gerar áudio.

text

O modelo só tem permissão para gerar texto.

ChatCompletionsOptions

As informações de configuração de uma solicitação de conclusão de chat. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua de ou "conclui" dados de prompt fornecidos.

Nome Tipo Valor padrão Description
frequency_penalty

number (float)

minimum: -2
maximum: 2
0

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que a frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções verbatim. O intervalo com suporte é [-2, 2].

max_tokens

integer (int32)

minimum: 0

O número máximo de tokens a serem gerados.

messages ChatRequestMessage[]:

A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de chat para a função Sistema que fornece instruções para o comportamento do assistente, seguido por mensagens alternadas entre as funções Usuário e Assistente.

modalities

ChatCompletionsModality[]

As modalidades que o modelo tem permissão para usar para a resposta de conclusões de chat. A modalidade padrão é text. Indicar uma combinação de modalidade sem suporte resulta em um erro 422.

model

string

ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade.

presence_penalty

number (float)

minimum: -2
maximum: 2
0

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos. O intervalo com suporte é [-2, 2].

response_format ChatCompletionsResponseFormat:

Um objeto que especifica o formato que o modelo deve gerar.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.

seed

integer (int64)

Se especificado, o sistema fará um esforço melhor para amostrar deterministicamente, de modo que solicitações repetidas com a mesma semente e parâmetros devem retornar o mesmo resultado. O determinismo não é garantido.

stop

string[]

Uma coleção de sequências textuais que encerrará a geração de conclusões.

stream

boolean

Um valor que indica se as conclusões de chat devem ser transmitidas para essa solicitação.

temperature

number (float)

minimum: 0
maximum: 1
0.7

A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1].

tool_choice

Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat.

tools

ChatCompletionsToolDefinition[]

Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, há suporte apenas para funções como uma ferramenta. O modelo pode ser uma resposta com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função.

top_p

number (float)

minimum: 0
maximum: 1
1

Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados dos tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15 principais% de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusão que a interação dessas duas configurações é difícil de prever. O intervalo com suporte é [0, 1].

ChatCompletionsResponseFormatJsonObject

Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem de usuário.

Nome Tipo Description
type string:

json_object

O tipo de formato de resposta a ser usado para conclusões de chat.

ChatCompletionsResponseFormatJsonSchema

Um formato de resposta para Conclusões de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador.

Nome Tipo Description
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

A definição do esquema JSON necessário na resposta e os metadados associados.

type string:

json_schema

O tipo de formato de resposta a ser usado para conclusões de chat.

ChatCompletionsResponseFormatJsonSchemaDefinition

A definição do esquema JSON necessário na resposta e os metadados associados.

Nome Tipo Valor padrão Description
description

string

Uma descrição do formato de resposta, usada pelo modelo de IA para determinar como gerar respostas nesse formato.

name

string

O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64.

schema

A definição do esquema JSON

strict

boolean

False

Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no campo schema. Há suporte apenas para um subconjunto de Esquema JSON quando strict é true.

ChatCompletionsResponseFormatText

Um formato de resposta para Conclusões de Chat que emite respostas de texto. Esse é o formato de resposta padrão.

Nome Tipo Description
type string:

text

O tipo de formato de resposta a ser usado para conclusões de chat.

ChatCompletionsToolCall

Uma chamada de ferramenta de função solicitada pelo modelo de IA.

Nome Tipo Description
function

FunctionCall

Os detalhes da chamada de função solicitada pelo modelo de IA.

id

string

A ID da chamada da ferramenta.

type enum:

function

O tipo de chamada de ferramenta. Atualmente, há suporte apenas function.

ChatCompletionsToolDefinition

A definição de uma ferramenta de conclusão de chat que pode chamar uma função.

Nome Tipo Description
function

FunctionDefinition

Os detalhes da definição de função para a ferramenta de função.

type enum:

function

O tipo da ferramenta. Atualmente, há suporte apenas function.

ChatRequestAssistantMessage

Uma mensagem de chat de solicitação que representa a resposta ou a ação do assistente.

Nome Tipo Description
audio

ChatRequestAudioReference

O áudio gerado por uma resposta anterior em uma conversa de vários turnos.

content

string

O conteúdo da mensagem.

role string:

assistant

A função de chat associada a essa mensagem.

tool_calls

ChatCompletionsToolCall[]

As chamadas de ferramenta que devem ser resolvidas e ter suas saídas anexadas às mensagens de entrada subsequentes para a solicitação de conclusões de chat a serem resolvidas como configuradas.

ChatRequestAudioReference

Uma referência a uma resposta de áudio gerada pelo modelo.

Nome Tipo Description
id

string

Identificador exclusivo para a resposta de áudio. Esse valor corresponde à ID de uma conclusão de áudio anterior.

ChatRequestSystemMessage

Uma mensagem de chat de solicitação que contém instruções do sistema que influenciam como o modelo gerará uma resposta de conclusões de chat.

Nome Tipo Description
content

string

O conteúdo da mensagem do sistema.

role string:

system

A função de chat associada a essa mensagem.

ChatRequestToolMessage

Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada.

Nome Tipo Description
content

string

O conteúdo da mensagem.

role string:

tool

A função de chat associada a essa mensagem.

tool_call_id

string

A ID da chamada de ferramenta resolvida pelo conteúdo fornecido.

ChatRequestUserMessage

Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente.

Nome Tipo Description
content

O conteúdo da mensagem do usuário, com tipos de entrada disponíveis variando por modelo selecionado.

role string:

user

A função de chat associada a essa mensagem.

ChatResponseMessage

Uma representação de uma mensagem de chat como recebida em uma resposta.

Nome Tipo Description
audio

ChatCompletionsAudio

O áudio gerado pelo modelo como uma resposta às mensagens se o modelo estiver configurado para gerar áudio.

content

string

O conteúdo da mensagem.

role

ChatRole

A função de chat associada à mensagem.

tool_calls

ChatCompletionsToolCall[]

As chamadas de ferramenta que devem ser resolvidas e ter suas saídas anexadas às mensagens de entrada subsequentes para a solicitação de conclusões de chat a serem resolvidas como configuradas.

ChatRole

Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat.

Valor Description
assistant

A função que fornece respostas para entradas orientadas pelo sistema e solicitadas pelo usuário.

developer

A função que fornece instruções para o modelo priorizado antes das mensagens do usuário.

system

A função que instrui ou define o comportamento do assistente.

tool

A função que representa a atividade da ferramenta de extensão dentro de uma operação de conclusão de chat.

user

A função que fornece entrada para conclusões de chat.

CompletionsFinishReason

Representação da maneira como uma resposta de conclusão foi concluída.

Valor Description
content_filter

As conclusões geraram uma resposta que foi identificada como potencialmente sensível por políticas de moderação de conteúdo.

length

As conclusões esgotaram os limites de token disponíveis antes que a geração pudesse ser concluída.

stop

As conclusões terminaram normalmente e atingiram o fim da geração de token.

tool_calls

A conclusão terminou com o modelo chamando uma ferramenta fornecida para saída.

CompletionsUsage

Representação das contagens de tokens processadas para uma solicitação de conclusão. As contagens consideram todos os tokens entre prompts, opções, alternativas de escolha, best_of gerações e outros consumidores.

Nome Tipo Description
completion_tokens

integer (int32)

O número de tokens gerados em todas as emissões de conclusão.

completion_tokens_details

CompletionsUsageDetails

Divisão de tokens usados em uma conclusão.

prompt_tokens

integer (int32)

O número de tokens nos prompts fornecidos para a solicitação de conclusão.

prompt_tokens_details

PromptUsageDetails

Divisão de tokens usados no histórico de prompt/chat.

total_tokens

integer (int32)

O número total de tokens processados para a solicitação e a resposta de conclusões.

CompletionsUsageDetails

Um detalhamento dos tokens usados em uma conclusão.

Nome Tipo Description
audio_tokens

integer (int32)

O número de tokens correspondentes à entrada de áudio.

total_tokens

integer (int32)

O número total de tokens processados para a solicitação e a resposta de conclusões.

ExtraParameters

Controla o que acontece se parâmetros extras, indefinidos pela API REST, forem passados no conteúdo da solicitação JSON.

Valor Description
drop

O serviço ignorará (soltar) parâmetros extras no conteúdo da solicitação. Ele só passará os parâmetros conhecidos para o modelo de IA de back-end.

error

O serviço errou se detectou parâmetros extras no conteúdo da solicitação. Esse é o padrão do serviço.

pass-through

O serviço passará parâmetros extras para o modelo de IA de back-end.

FunctionCall

O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Nome Tipo Description
arguments

string

Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função.

name

string

O nome da função a ser chamada.

FunctionDefinition

A definição de uma função especificada pelo chamador que as conclusões do chat podem invocar em resposta à entrada do usuário correspondente.

Nome Tipo Description
description

string

Uma descrição do que a função faz. O modelo usará essa descrição ao selecionar a função e interpretar seus parâmetros.

name

string

O nome da função a ser chamada.

parameters

Os parâmetros que a função aceita, descritos como um objeto de esquema JSON.

PromptUsageDetails

Um detalhamento dos tokens usados no histórico de prompt/chat.

Nome Tipo Description
audio_tokens

integer (int32)

O número de tokens correspondentes à entrada de áudio.

cached_tokens

integer (int32)

O número total de tokens armazenados em cache.