Azure OpenAI in Microsoft Foundry Models REST API preview reference (classic)

A ver atualmente:Versão - portal Foundry (clássica)Mudar para a versão do novo portal da Foundry

Nota

Os links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação clássica do Foundry que está a ver agora.

Este artigo fornece detalhes sobre os endpoints da API REST de inferência para Azure OpenAI.

Especificações da API

A gestão e interação com modelos e recursos Azure OpenAI está dividida em três superfícies principais de API:

  • Plano de controlo
  • Plano de dados - autoria
  • Plano de dados - inferência

Cada superfície/especificação API encapsula um conjunto diferente de capacidades Azure OpenAI. Cada API tem o seu próprio conjunto único de pré-visualização e versões de APIs estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.

Importante

Agora existe uma nova API de inferência de pré-visualização. Saiba mais no nosso guia do ciclo de vida da API.

API Última versão de pré-visualização Última versão da GA Especificações Descrição
Plano de controlo 2025-07-01-preview 2025-06-01 Ficheiros de especificação A API do plano de controlo é usada para operações como criação de recursos, implementação de modelos e outras tarefas de gestão de recursos de nível superior. O plano de controlo também regula o que é possível fazer com capacidades como Azure Resource Manager, Bicep, Terraform e Azure CLI.
Plano de dados v1 preview v1 Ficheiros de especificação A API do plano de dados controla as operações de inferência e autoria.

Autenticação

O Azure OpenAI fornece dois métodos de autenticação. Pode usar API Keys ou Microsoft Entra ID.

  • Autenticação de Chave API: Para este tipo de autenticação, todos os pedidos de API devem incluir a Chave API no api-key cabeçalho HTTP. O Quickstart fornece orientações sobre como fazer chamadas com este tipo de autenticação.

  • Autenticação Microsoft Entra ID: Pode autenticar uma chamada API usando um token Microsoft Entra. Os tokens de autenticação são incluídos num pedido como Authorization cabeçalho. O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN. Pode ler o nosso guia prático sobre autenticação com o Microsoft Entra ID.

Versionamento da API REST

As APIs dos serviços são versionadas usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de datas YYYY-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a 2025-04-01-preview versão pré-visualizada da especificação de inferência do plano de dados Azure OpenAI.

Se procura documentação sobre a última versão da API GA, consulte a API de inferência de planos de dados GA mais recente

Completações - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
best_of número inteiro Gera best_of completações do lado do servidor e devolve o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.

Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver ââ'�“ best_of devem ser maiores que n.

Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop.
Não 1
Echo Booleano Repita o prompt além da conclusão Não Falso
frequency_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. Não 0
logit_bias objecto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante.

Por exemplo, pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhuma
Logprobs número inteiro Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolve uma lista dos 5 tokens mais prováveis. A API devolve sempre o do logprob token amostrado, pelo que pode haver até logprobs+1 até elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhuma
max_tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do teu prompt plus max_tokens não pode exceder o comprimento do contexto do modelo.
Não 16
n número inteiro Quantas conclusãos gerar para cada prompt.

Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop.
Não 1
presence_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. Não 0
avisar String ou array O prompt para gerar completações para, codificado como uma string, array de strings, array de tokens ou array de tokens.

Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treino, por isso, se um prompt não for especificado, o modelo gera-se como se fosse do início de um novo documento.
Sim
Semente número inteiro Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.

O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend.
Não
Pára String ou array Até quatro sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens. Não
fluxo Booleano Se deves reverter o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Exemplo de código em Python.
Não Falso
Sufixo cadeia (de caracteres) O sufixo que surge após a conclusão do texto inserido.

Este parâmetro é suportado apenas para gpt-3.5-turbo-instruct.
Não Nenhuma
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.

Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON createCompletionResponse

Código de Estado: padrão

Descrição: Serviço indisponível

Tipo de Conteúdo Tipo Descrição
Application/JSON errorResposta

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenha uma representação vetorial de uma dada entrada que possa ser facilmente consumida por modelos e algoritmos de aprendizagem automática.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres) O ID de implementação do modelo que foi implementado.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Dimensões número inteiro O número de dimensões que os embeddings de saída resultantes devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. Não
encoding_format cadeia (de caracteres) O formato para devolver os embeddings. Pode ser qualquer um ou floatbase64outro. Por defeito, é float. Não
dados introduzidos String ou array Input texto para embed, codificado como uma string ou array de tokens. Para incorporar múltiplas entradas num único pedido, passe um array de strings ou array de tokens. A entrada não deve exceder os tokens máximos de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma string vazia, e qualquer array deve ter 2.048 dimensões ou menos. Sim
input_type cadeia (de caracteres) Tipo de entrada de pesquisa de embedding a utilizar Não
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON objecto

Exemplos

Exemplo

Devolva os embeddings para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusão de chat - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Cria uma conclusão para a mensagem do chat

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Áudio objecto Parâmetros para saída de áudio. É obrigatório quando a saída de áudio é solicitada com modalities: ["audio"]. Não
└─ Formato enumeração Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16.

Valores possíveis: wav, mp3, flac, opus, pcm16
Não
└─ voz enumeração Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.

Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
Não
data_sources matriz As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam.
Esta especificação extra só é compatível com o Azure OpenAI.
Não
frequency_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
Não 0
function_call string ou chatCompletionFunctionCallOption Descontinuado em favor de tool_choice.

Controla qual (se existe) função é chamada pelo modelo.
none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.

none é o padrão quando não há funções presentes. auto é o padrão se as funções estiverem presentes.
Não
Funções matriz Descontinuado em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não
logit_bias objecto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia os tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante.
Não Nenhuma
Logprobs Booleano Se deve devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, devolve as probabilidades logarítmicas de cada token de saída devolvido no content de message. Não Falso
max_completion_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Não
max_tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo.
Não
Mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código em Python. Sim
metadados objecto Etiquetas e valores definidos pelo programador usados para filtrar completações no painel de completações armazenadas. Não
Modalidades ChatCompletionModalities Tipos de saída que gostaria que o modelo gerasse para este pedido.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:

["text", "audio"]
Não
n número inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. Não 1
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
predição Conteúdo de Previsão Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isto é mais comum quando se está a regenerar um ficheiro com apenas pequenas alterações na maior parte do conteúdo. Não
presence_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas.
Não 0
reasoning_effort enumeração Apenas modelos O1

Limita o esforço de raciocínio para modelos de raciocínio.

Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.
Valores possíveis: low, medium, high
Não
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes do que gpt-3.5-turbo-1106.

A definição para { "type": "json_schema", "json_schema": {...} } ativa ativa os Structured Outputs, que garantem que o modelo corresponde ao seu esquema JSON fornecido.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Semente número inteiro Esta funcionalidade está em Beta.
Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.
O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend.
Não
Pára String ou array Até 4 sequências em que a API deixa de gerar mais tokens.
Não
armazenar Booleano Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso nos nossos produtos de destilação ou avaliação de modelos. Não
fluxo Booleano Se definido, são enviados deltas parciais da mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Exemplo de código em Python.
Não Falso
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isto quando defines stream: true.
Não Nenhuma
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.

Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
tool_choice chatCompletionToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta. none é o padrão quando não há ferramentas presentes. auto é o padrão se houver ferramentas presentes. Não
Ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isto para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. São suportadas um máximo de 128 funções.
Não
top_logprobs número inteiro Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis a serem retornados em cada posição do token, cada um com uma probabilidade logarítmica associada. logprobs deve ser definido para true se este parâmetro for utilizado. Não
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
user_security_context userSecurityContext O contexto de segurança do utilizador contém vários parâmetros que descrevem a própria aplicação de IA e o utilizador final que interage com a aplicação de IA. Estes campos ajudam as suas equipas de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger as suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando o Microsoft Defender for Cloud. Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON objecto

Código de Estado: padrão

Descrição: Serviço indisponível

Tipo de Conteúdo Tipo Descrição
Application/JSON errorResposta

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão baseada nos dados do Azure Search e na identidade gerida atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão baseada em dados vetoriais de imagem do Azure Search.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão baseada nos dados do vetorial de pesquisa do Azure, na mensagem do assistente anterior e na identidade gerida atribuída pelo utilizador.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para a base de dados Azure Cosmos fornecida.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para a base de dados Mongo fornecida.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Elasticsearch fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o recurso Pinecone fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcreve o áudio para a língua de entrada.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Padrão
modelo cadeia (de caracteres) ID do modelo a usar. As opções são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. Sim
ficheiro cadeia (de caracteres) O objeto do ficheiro áudio para transcrever. Sim
linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. Não
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
Temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. Não 0
timestamp_granularities[] matriz As granularidades do carimbo temporal para preencher esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo temporal. Uma ou ambas estas opções são suportadas: word, ou segment. Nota: Não existe latência adicional para carimbos temporais de segmentos, mas gerar carimbos temporais de palavra implica latência adicional. Não ['segmento']

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON objecto
texto/simples cadeia (de caracteres) Texto transcrito no formato de saída (quando response_format era um dos text, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito e metadados associados a partir dos dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito e metadados associados a partir dos dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcreve e traduz áudio de entrada para texto em inglês.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Padrão
ficheiro cadeia (de caracteres) O ficheiro de áudio para traduzir. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O enunciado deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
Temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. Não 0

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON objecto
texto/simples cadeia (de caracteres) Texto transcrito no formato de saída (quando response_format era texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Fala - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Gera áudio a partir do texto de entrada.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Padrão
dados introduzidos cadeia (de caracteres) O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Sim
response_format enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, wav, pcm
Não
Velocidade Número A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é o padrão. Não 1.0
Voz enumeração A voz a usar para síntese de voz.
Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
Sim

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/octet-stream cadeia (de caracteres)

Exemplos

Exemplo

Sintetiza áudio a partir do texto fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Respostas: Código de Estado: 200

{
  "body": "101010101"
}

Gerações de imagens - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Gera um lote de imagens a partir de uma legenda de texto numa dada implementação de modelo de geração de imagens

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
em segundo plano imageContexto Permite definir transparência para o fundo das imagens geradas. Este parâmetro é apenas suportado para modelos da série gpt-image-1. Não Auto
n número inteiro O número de imagens a gerar. Para dall-e-3, apenas n=1 é suportado. Não 1
output_compression número inteiro O nível de compressão (0-100%) para as imagens geradas. Este parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. Não 100
output_format imagesOutputFormat O formato de ficheiro no qual as imagens geradas são devolvidas. Apenas suportado para modelos da série gpt-image-1. Não PNG
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 Sim
partial_images número inteiro O número de imagens parciais a gerar. Este parâmetro é usado para respostas em streaming que devolvem imagens parciais. O valor deve estar entre 0 e 3. Quando definido para 0, a resposta será uma única imagem enviada num evento de streaming. Note que a imagem final pode ser enviada antes de o número total de imagens parciais ser gerado, se a imagem completa for gerada mais rapidamente. 0
fluxo Booleano Edita a imagem em modo streaming. Não false
Qualidade Qualidade de imagem A qualidade da imagem que será gerada. Não Auto
response_format imagesResponseFormat O formato em que as imagens geradas são devolvidas. Este parâmetro não é suportado para gpt-image-1modelos da série -que retornam sempre imagens codificadas base64.
Valores possíveis: url, b64_json.
Não URL
Tamanho imageSize O tamanho das imagens geradas. Não Auto
Estilo imageStyle O estilo das imagens geradas. Só é suportado para DALL-E-3. Não vívido
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

Respostas

Código de Estado: 200

Descrição: Ok

Tipo de Conteúdo Tipo Descrição
Application/JSON gerarImagensResposta

Código de Estado: padrão

Descrição: Ocorreu um erro.

Tipo de Conteúdo Tipo Descrição
Application/JSON dalleErroResposta

Exemplos

Exemplo

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de Estado: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Gerações de imagens - Editar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Edita uma imagem a partir de uma legenda de texto numa dada implementação de modelo gpt-image-1

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Deployment-id caminho Sim cadeia (de caracteres)
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Padrão
imagem String ou array A(s) imagem(s) a editar. Deve ser um ficheiro de imagem suportado ou um array de imagens. Cada imagem deve ser um ficheiro png ou jpg com menos de 50MB. Sim
input_fidelity cadeia (de caracteres) Controla quanto esforço o modelo irá fazer para corresponder ao estilo e às características, especialmente as características faciais, das imagens de entrada. Este parâmetro é apenas suportado para modelos da série gpt-image-1. Suportes high e low. Não low.
máscara cadeia (de caracteres) Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se forem fornecidas várias imagens, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. Não
n número inteiro O número de imagens a gerar. Deve estar entre 1 e 10. Não 1
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. Sim
Qualidade Qualidade de imagem A qualidade da imagem que será gerada. Não Auto
partial_images O número de imagens parciais a gerar. Este parâmetro é usado para respostas em streaming que devolvem imagens parciais. O valor deve estar entre 0 e 3. Quando definido para 0, a resposta será uma única imagem enviada num evento de streaming. Note que a imagem final pode ser enviada antes de o número total de imagens parciais ser gerado, se a imagem completa for gerada mais rapidamente.
fluxo Booleano Edita a imagem em modo streaming. Não false
response_format imagesResponseFormat O formato em que as imagens geradas são devolvidas. Não URL
Tamanho imageSize O tamanho das imagens geradas. Não Auto
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

Respostas

Código de Estado: 200

Descrição: Ok

Tipo de Conteúdo Tipo Descrição
Application/JSON gerarImagensResposta

Código de Estado: padrão

Descrição: Ocorreu um erro.

Tipo de Conteúdo Tipo Descrição
Application/JSON dalleErroResposta

Lista - Assistentes

Nota

A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Devolve uma lista de assistentes.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listaAssistentesResposta

Exemplos

Exemplo

Devolve uma lista de assistentes.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Criar - Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Cria um assistente com um modelo e instruções.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente utiliza. O comprimento máximo é de 256.000 caracteres.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) Sim
Nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON assistenteObjeto

Exemplos

Exemplo

Cria um assistente com um modelo e instruções.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Get - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Vai buscar um assistente.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Sim cadeia (de caracteres) A identificação do assistente a recuperar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON assistenteObjeto

Exemplos

Exemplo

Vai buscar um assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modificar - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica um assistente.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Sim cadeia (de caracteres) O ID do assistente a modificar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente utiliza. O comprimento máximo é de 32768 caracteres.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) Não
Nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Sobrepõe a lista de IDs de ficheiros disponibilizados à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz Sobrepõe o armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON assistenteObjeto

Exemplos

Exemplo

Modifica um assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Eliminar - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Apaga um assistente.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Sim cadeia (de caracteres) O ID do assistente para apagar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON deleteAssistenteResposta

Exemplos

Exemplo

Apaga um assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Criar - Thread

Nota

A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Cria um tópico.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Mensagens matriz Uma lista de mensagens para começar o tópico. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
tool_resources objecto Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este fio. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON threadObject

Exemplos

Exemplo

Cria um fio de conversa.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Get - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera um fio.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do tópico para recuperar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON threadObject

Exemplos

Exemplo

Recupera um fio.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modificar - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica um tópico.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do tópico a modificar. Apenas os metadata que podem ser modificados.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
tool_resources objecto Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiro disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON threadObject

Exemplos

Exemplo

Modifica um tópico.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Eliminar - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Apaga um tópico.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do tópico para apagar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON deleteThreadResponse

Exemplos

Exemplo

Apaga um tópico.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Lista - Mensagens

Nota

A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Devolve uma lista de mensagens para um determinado tópico.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID dos threads a que pertencem as mensagens.
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
run_id consulta Não cadeia (de caracteres) Filtra as mensagens pelo ID da corrida que as gerou.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listaMensagensResposta

Exemplos

Exemplo

Mensagens de Lista

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Criar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Cria uma mensagem.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID dos threads para criar uma mensagem.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Anexos matriz Uma lista de ficheiros anexados à mensagem e as ferramentas a que devem ser adicionados. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
função cadeia (de caracteres) O papel da entidade que está a criar a mensagem. Os valores permitidos incluem:
- user: Indica que a mensagem foi enviada por um utilizador real e deve ser usada na maioria dos casos para representar mensagens geradas pelo utilizador.
- assistant: Indica que a mensagem é gerada pelo assistente. Use este valor para inserir mensagens do assistente na conversa.
Sim

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON messageObject

Exemplos

Exemplo

Cria uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Get - Mensagem

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recupera uma mensagem.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID dos threads a que esta mensagem pertence.
message_id caminho Sim cadeia (de caracteres) O ID da mensagem a recuperar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON messageObject

Exemplos

Exemplo

Recupera uma mensagem.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modificar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica uma mensagem.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID da thread a que esta mensagem pertence.
message_id caminho Sim cadeia (de caracteres) O ID da mensagem a modificar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON messageObject

Exemplos

Exemplo

Modificar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Create - Thread And Run

Nota

A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Cria um tópico e executa-o num único pedido.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
assistant_id cadeia (de caracteres) O ID do assistente a usar para executar esta execução. Sim
Instruções cadeia (de caracteres) Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. Não
max_completion_tokens número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações.
Não
max_prompt_tokens número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) O ID dos modelos a serem usados para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
fluxo Booleano Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem.
Não
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isto quando defines stream: true.
Não Nenhuma
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
conversa createThreadRequest Não
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.
Não
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O ID do armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. Não
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1
truncation_strategy truncationObject Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runObject

Exemplos

Exemplo

Cria um tópico e executa-o num único pedido.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Lista - Corridas

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Devolve uma lista de execuções pertencentes a uma thread.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do thread a que pertence a execução.
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listRunsResponse

Exemplos

Exemplo

Devolve uma lista de execuções pertencentes a uma thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Criar - Correr

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Cria uma corrida.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do tópico a executar.
incluir[] consulta Não matriz Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content obter o conteúdo dos resultados de pesquisa do ficheiro.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
additional_instructions cadeia (de caracteres) Acrescenta instruções adicionais no final das instruções para a corrida. Isto é útil para modificar o comportamento a cada execução sem sobrepor outras instruções. Não
additional_messages matriz Adiciona mensagens adicionais ao tópico antes de criar a execução. Não
assistant_id cadeia (de caracteres) O ID do assistente a usar para executar esta execução. Sim
Instruções cadeia (de caracteres) Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. Não
max_completion_tokens número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações.
Não
max_prompt_tokens número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) O ID do Modelo a ser usado para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
fluxo Booleano Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.
Não
Ferramentas matriz Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. Não
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1
truncation_strategy truncationObject Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runObject

Exemplos

Exemplo

Cria uma corrida.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Foge - Corre

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera uma corrida.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID dos tópicos que foram executados.
run_id caminho Sim cadeia (de caracteres) O ID da corrida para recuperar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runObject

Exemplos

Exemplo

Tem uma corrida.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modificar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica uma corrida.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID dos tópicos que foram executados.
run_id caminho Sim cadeia (de caracteres) O ID da corrida a modificar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runObject

Exemplos

Exemplo

Modifica uma corrida.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Submeter - Saídas de Ferramentas a Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, este endpoint pode ser usado para submeter as saídas das chamadas de ferramenta depois de todas estarem concluídas. Todos os resultados devem ser submetidos num único pedido.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID dos threads a que esta execução pertence.
run_id caminho Sim cadeia (de caracteres) O ID da execução que requer a submissão da saída da ferramenta.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
fluxo Booleano Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem.
Não
tool_outputs matriz Uma lista das ferramentas para as quais os resultados estão a ser submetidos. Sim

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runObject

Exemplos

Exemplo

Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, este endpoint pode ser usado para submeter as saídas das chamadas de ferramenta depois de todas estarem concluídas. Todos os resultados devem ser submetidos num único pedido.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Cancelar - Correr

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Cancela uma corrida que é in_progress.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do thread a que esta execução pertence.
run_id caminho Sim cadeia (de caracteres) O ID da corrida para cancelar.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runObject

Exemplos

Exemplo

Cancela uma corrida que é in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Lista - Run Steps

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Devolve uma lista de passos de execução pertencentes a uma execução.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do thread a que pertencem os passos de execução e execução.
run_id caminho Sim cadeia (de caracteres) O ID da corrida a que pertencem os passos de execução.
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
versão API consulta Sim cadeia (de caracteres)
incluir[] consulta Não matriz Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content obter o conteúdo dos resultados de pesquisa do ficheiro.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listaCorrerPassosResposta

Exemplos

Exemplo

Devolve uma lista de passos de execução pertencentes a uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Passo de Correr - Correr

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera um passo de corrida.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Sim cadeia (de caracteres) O ID do thread ao qual pertence o passo run e run.
run_id caminho Sim cadeia (de caracteres) O ID da execução à qual pertence o passo de execução.
step_id caminho Sim cadeia (de caracteres) O ID do passo de corrida a recuperar.
incluir[] consulta Não matriz Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content obter o conteúdo dos resultados de pesquisa do ficheiro.
versão API consulta Sim cadeia (de caracteres)

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON runStepObject

Exemplos

Exemplo

Recupera um passo de corrida.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Lista - Lojas Vetoriais

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Devolve uma lista de armazenamentos vetoriais.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listVectorStoresResponse

Exemplos

Exemplo

Devolve uma lista de armazenamentos vetoriais.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Criar - Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Cria um armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Só se aplica se file_ids estiver não vazio. Não
expires_after vectorStoreExpirationAfter A política de expiração para uma loja vetorial. Não
file_ids matriz Uma lista de IDs de ficheiros que o armazenamento vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
Nome cadeia (de caracteres) O nome da loja vetorial. Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreObject

Exemplos

Exemplo

Cria um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obter - Vector Store

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera um armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial a recuperar.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreObject

Exemplos

Exemplo

Recupera um armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modificar - Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica um armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial a modificar.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
expires_after vectorStoreExpirationAfter A política de expiração para uma loja vetorial. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
Nome cadeia (de caracteres) O nome da loja vetorial. Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreObject

Exemplos

Exemplo

Modifica um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Delete - Armazenamento Vetorial

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Apaga um armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial para apagar.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON deleteVectorStoreResponse

Exemplos

Exemplo

Apaga um armazenamento vetorial.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Lista - Ficheiros de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Devolve uma lista de ficheiros de armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial a que pertencem os ficheiros.
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
filtro consulta Não cadeia (de caracteres)
Valores possíveis: in_progress, completed, failed, cancelled
Filtrar por estado do ficheiro. Uma de in_progress, completed, failed, cancelled.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listaVectorArmazenarFicheirosResposta

Exemplos

Exemplo

Devolve uma lista de ficheiros de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create - Ficheiro de Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Crie um ficheiro de armazenamento vetorial anexando um ficheiro a um armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial para a qual criar um ficheiro.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Não
file_id cadeia (de caracteres) Um ID de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. Sim

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreFileObject

Exemplos

Exemplo

Crie um ficheiro de armazenamento vetorial anexando um ficheiro a um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Respostas: Código de Estado: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Get - Ficheiro de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera um ficheiro de armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial a que o ficheiro pertence.
file_id caminho Sim cadeia (de caracteres) O ID do ficheiro que está a ser recuperado.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreFileObject

Exemplos

Exemplo

Recupera um ficheiro de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Eliminar - Ficheiro de Armazenamento Vetorial

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Apagar um ficheiro de armazenamento vetorial. Isto remove o ficheiro da loja vetorial, mas o ficheiro em si não será eliminado. Para eliminar o ficheiro, use o endpoint delete file.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial a que o ficheiro pertence.
file_id caminho Sim cadeia (de caracteres) O ID do ficheiro para apagar.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON deleteVectorStoreFileResponse

Exemplos

Exemplo

Apagar um ficheiro de armazenamento vetorial. Isto remove o ficheiro da loja vetorial, mas o ficheiro em si não será eliminado. Para eliminar o ficheiro, use o endpoint delete file.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Atualizar atributos num ficheiro de armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID do armazenamento vetorial a que o ficheiro pertence.
file_id caminho Sim cadeia (de caracteres) O ID do ficheiro para atualizar atributos.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Atributos VectorStoreFileAttributes Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números.
Sim

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreFileObject

Recuperar o conteúdo do ficheiro de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recupere o conteúdo analisado de um ficheiro de armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID do armazenamento vetorial.
file_id caminho Sim cadeia (de caracteres) O ID do ficheiro dentro da loja vetorial.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON VectorStoreFileContentResponse

Armazenamento vetorial de pesquisa

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Pesquise numa loja vetorial por blocos relevantes com base num filtro de consulta e atributos de ficheiro.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial para pesquisar.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
Filtros Filtro de Comparação ou Filtro Composto Um filtro a aplicar com base nos atributos do ficheiro. Não
max_num_results número inteiro O número máximo de resultados a devolver. Este número deve estar entre 1 e 50, inclusive. Não 10
consulta String ou array Uma cadeia de consulta para uma pesquisa Sim
ranking_options objecto Opções de classificação para pesquisa. Não
└─ Ranker enumeração
Valores possíveis: auto, default-2024-11-15
Não
└─ score_threshold Número Não 0
rewrite_query Booleano Se deve reescrever a consulta em linguagem natural para pesquisa vetorial. Não Falso

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON VectorStoreSearchResultsPágina

Criar - Lote de Ficheiro de Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Cria um lote de ficheiro de armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial para a qual criar um File Batch.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Não
file_ids matriz Uma lista de IDs de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. Sim

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreFileBatchObject

Exemplos

Exemplo

Cria um lote de ficheiro de armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Respostas: Código de Estado: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Get - Lote de ficheiros de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera um lote de ficheiro de armazenamento vetorial.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID do armazenamento vetorial a que pertence o lote de ficheiros.
batch_id caminho Sim cadeia (de caracteres) O ID do lote de ficheiros que está a ser recuperado.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreFileBatchObject

Exemplos

Exemplo

Recupera um lote de ficheiro de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Cancelar - Lote de ficheiros de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Cancela um lote de ficheiros de armazenamento vetorial. Isto tenta cancelar o processamento dos ficheiros neste lote o mais rapidamente possível.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID do armazenamento vetorial a que pertence o lote de ficheiros.
batch_id caminho Sim cadeia (de caracteres) O ID do lote de ficheiros para cancelar.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON vectorStoreFileBatchObject

Exemplos

Exemplo

Cancela um lote de ficheiros de armazenamento vetorial. Isto tenta cancelar o processamento dos ficheiros neste lote o mais rapidamente possível.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Lista - Ficheiros Batch de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Devolve uma lista de ficheiros de armazenamento vetorial em lote.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Sim cadeia (de caracteres) O ID da loja vetorial a que pertencem os ficheiros.
batch_id caminho Sim cadeia (de caracteres) O ID do lote de ficheiros a que pertencem os ficheiros.
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordena pelo created_at carimbo temporal dos objetos. asc para ordem ascendente e desc para ordem descendente.
depois consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
filtro consulta Não cadeia (de caracteres)
Valores possíveis: in_progress, completed, failed, cancelled
Filtrar por estado do ficheiro. Uma de in_progress, completed, failed, cancelled.
versão API consulta Sim cadeia (de caracteres) Versão API

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON listaVectorArmazenarFicheirosResposta

Exemplos

Exemplo

Devolve uma lista de ficheiros de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Respostas: Código de Estado: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar - Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Crie um token de API efémero para utilização em aplicações do lado do cliente com a API em tempo real. Pode ser configurado com os mesmos parâmetros de sessão do session.update evento cliente. Responde com um objeto de sessão, além de uma client_secret chave que contém um token efémero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
input_audio_noise_reduction objecto Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada.
Não
└─ Tipo enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.

Valores possíveis: near_field, far_field
Não
input_audio_transcription objecto Configuração para transcrição de áudio de entrada, por defeito desligado e pode ser definido para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição corre de forma assíncrona através do endpoint de Transcrições e deve ser tratada como orientação do conteúdo áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição.
Não
└─ Linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
Não
└─ modelo cadeia (de caracteres) O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia".
Não
Instruções cadeia (de caracteres) As instruções padrão do sistema (ou seja, a mensagem do sistema) antecediam as chamadas de modelo. Este campo permite ao cliente orientar o modelo nas respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato das respostas (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento áudio (por exemplo, "fala depressa", "injeta emoção na tua voz", "ri frequentemente"). As instruções não são garantidas de serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.

Note que o servidor define instruções padrão que serão usadas se este campo não estiver definido e que são visíveis no session.created evento no início da sessão.
Não
max_response_output_tokens inteiro ou cadeia Número máximo de tokens de saída para uma resposta de um único assistente, incluindo chamadas de ferramenta. Fornecer um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um dado modelo. Por defeito, é inf.
Não
Modalidades O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"].
Não
modelo cadeia (de caracteres) O nome da implantação usada para esta sessão.
Não
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
Temperatura Número Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos áudio, recomenda-se vivamente uma temperatura de 0,8 para melhor desempenho.
Não 0.8
tool_choice cadeia (de caracteres) Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
Não Auto
Ferramentas matriz Ferramentas (funções) disponíveis para o modelo. Não
turn_detection objecto Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador.
O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada.
Não
└─ create_response Booleano Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para semantic_vad o modo. A vontade do modelo de responder. low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ interrupt_response Booleano Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD.
Não Verdade
└─ prefix_padding_ms número inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms.
Não
└─ silence_duration_ms número inteiro Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador.
Não
└─ Limiar Número Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos.
Não
└─ Tipo enumeração Tipo de deteção de curva.

Valores possíveis: server_vad, semantic_vad
Não
Voz VoiceIdsShared Não

Respostas

Código de Estado: 200

Descrição: Sessão criada com sucesso.

Tipo de Conteúdo Tipo Descrição
Application/JSON RealtimeSessionCriarResposta

Criar - Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Crie um token API efémero para utilização em aplicações do lado do cliente com a API Realtime especificamente para transcrições em tempo real. Pode ser configurado com os mesmos parâmetros de sessão do transcription_session.update evento cliente. Responde com um objeto de sessão, além de uma client_secret chave que contém um token efémero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
inclui matriz O conjunto de itens a incluir na transcrição. Os itens atualmente disponíveis são:
- item.input_audio_transcription.logprobs
Não
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
input_audio_noise_reduction objecto Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada.
Não
└─ Tipo enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.

Valores possíveis: near_field, far_field
Não
input_audio_transcription objecto Configuração para transcrição áudio de entrada. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição.
Não
└─ Linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
Não
└─ modelo enumeração O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia".
Não
Modalidades O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"].
Não
turn_detection objecto Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador.
O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada.
Não
└─ create_response Booleano Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para semantic_vad o modo. A vontade do modelo de responder. low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ interrupt_response Booleano Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ prefix_padding_ms número inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms.
Não
└─ silence_duration_ms número inteiro Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador.
Não
└─ Limiar Número Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos.
Não
└─ Tipo enumeração Tipo de deteção de curva.

Valores possíveis: server_vad, semantic_vad
Não

Respostas

Código de Estado: 200

Descrição: Sessão criada com sucesso.

Tipo de Conteúdo Tipo Descrição
Application/JSON Tempo realTranscriçãoSessãoCriarResposta

Respostas

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Cria uma resposta modelo.

Órgão do Pedido

Tipo-Conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
inclui matriz Não
dados introduzidos String ou array Entradas de modelos Sim
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas.
Não
max_output_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
Não
parallel_tool_calls Booleano Se permitir que o modelo execute chamadas de ferramenta em paralelo.
Não Verdade
previous_response_id cadeia (de caracteres) O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. Saiba mais sobre o estado da conversa.
Não
Raciocínio Fundamentação Opções de configuração para modelos de raciocínio. Não
armazenar Booleano Se deve armazenar a resposta gerada do modelo para recuperação posterior via API.
Não Verdade
fluxo Booleano Se definido como verdadeiro, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor.
Consulte a secção de Streaming abaixo para mais informações.
Não Falso
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- Entradas e saídas de texto
- Saídas Estruturadas
Não
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam.
Não
tool_choice OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar.
Não
Ferramentas matriz Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que pode fornecer ao modelo são:

- Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o
Capacidades do modelo
Não
Truncamento enumeração A estratégia de truncamento a usar para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, eliminando itens de entrada a meio da conversa.
- disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.

Valores possíveis: auto, disabled
Não

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON Resposta
Texto/Fluxo-de Eventos responseStreamEvent

Código de Estado: padrão

Descrição: Serviço indisponível

Tipo de Conteúdo Tipo Descrição
Application/JSON errorResposta

API de Respostas - itens de entrada

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera uma resposta do modelo com o ID indicado.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Sim cadeia (de caracteres) O ID da resposta para recuperar.
inclui consulta Não matriz Campos adicionais a incluir na resposta. Consulte o include parâmetro para criação de Resposta acima para mais informações.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON Resposta

Código de Estado: padrão

Descrição: Serviço indisponível

Tipo de Conteúdo Tipo Descrição
Application/JSON errorResposta

Resposta de apagar

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Apaga uma resposta de modelo com o ID indicado.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Sim cadeia (de caracteres) O ID da resposta para apagar.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Código de Estado: 404

Descrição: Não Encontrado

Tipo de Conteúdo Tipo Descrição
Application/JSON erro

Código de Estado: padrão

Descrição: Serviço indisponível

Tipo de Conteúdo Tipo Descrição
Application/JSON errorResposta

API de respostas - lista de itens de resposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Devolve uma lista de itens de entrada para uma dada resposta.

Parâmetros URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL da cadeia Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Sim cadeia (de caracteres) O ID da resposta para recuperar itens de entrada para.
Limite consulta Não número inteiro Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
A ordem para devolver os itens de entrada. O padrão é asc.
- asc: Devolve os itens de entrada por ordem crescente.
- desc: Devolver os itens de entrada por ordem decrescente.
depois consulta Não cadeia (de caracteres) Um ID de item para listar os itens depois, usado na paginação.
antes consulta Não cadeia (de caracteres) Um ID de item para listar itens anteriores, usado na paginação.

Cabeçalho de Pedido

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito: https://ai.azure.com/.default
API-Key Verdade cadeia (de caracteres) Forneça aqui a chave API Azure OpenAI

Respostas

Código de Estado: 200

Descrição: OK

Tipo de Conteúdo Tipo Descrição
Application/JSON responseItemList

Componentes

errorResposta

Nome Tipo Descrição Obrigatório Padrão
erro erro Não

ErrorBase

Nome Tipo Descrição Obrigatório Padrão
código cadeia (de caracteres) Não
mensagem cadeia (de caracteres) Não

erro

Nome Tipo Descrição Obrigatório Padrão
inner_error innerError Erro interno com detalhes adicionais. Não
Param cadeia (de caracteres) Não
tipo cadeia (de caracteres) Não

innerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Padrão
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results contentFilterPromptResults Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. Não

innerErrorCode

Códigos de erro para o objeto de erro interno.

Propriedade Valor
Descrição Códigos de erro para o objeto de erro interno.
Tipo cadeia (de caracteres)
Valores ResponsibleAIPolicyViolation

dalleErroResposta

Nome Tipo Descrição Obrigatório Padrão
erro dalleError Não

dalleError

Nome Tipo Descrição Obrigatório Padrão
inner_error dalleInnerError Erro interno com detalhes adicionais. Não
Param cadeia (de caracteres) Não
tipo cadeia (de caracteres) Não

dalleInnerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Padrão
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results dalleFilterResults Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. Não
revised_prompt cadeia (de caracteres) O prompt que foi usado para gerar a imagem, caso tenha havido alguma revisão ao prompt. Não

contentFilterCompletionTextSpan

Descreve um intervalo dentro do texto de conclusão gerado. O Offset 0 é o primeiro ponto de código UTF32 do texto de completamento.

Nome Tipo Descrição Obrigatório Padrão
completion_end_offset número inteiro Deslocamento do primeiro ponto de código UTF32 que está excluído do vão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para vãos não vazios. Sim
completion_start_offset número inteiro Deslocamento do ponto de código UTF32 que inicia o vão. Sim

contentFilterResultBase

Nome Tipo Descrição Obrigatório Padrão
filtrado Booleano Sim

contentFilterSeverityResult

Nome Tipo Descrição Obrigatório Padrão
filtrado Booleano Sim
Gravidade cadeia (de caracteres) Não

contentFilterDetectedResult

Nome Tipo Descrição Obrigatório Padrão
detetado Booleano Não
filtrado Booleano Sim

conteúdoFiltroDetetadoComCitaçãoResultado

Nome Tipo Descrição Obrigatório Padrão
Citação objecto Não
└─ URL cadeia (de caracteres) Não
└─ licença cadeia (de caracteres) Não

contentFilterDetectedWithCompletionTextSpansResult

Nome Tipo Descrição Obrigatório Padrão
Detalhes matriz Não

contentFilterIdResult

Nome Tipo Descrição Obrigatório Padrão
filtrado Booleano Sim
id cadeia (de caracteres) Não

contentFilterResultsBase

Informação sobre os resultados do filtro de conteúdo.

Nome Tipo Descrição Obrigatório Padrão
custom_blocklists conteúdoFiltroDetalhadosResultados Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. Não
erro ErrorBase Não
Ódio contentFilterSeverityResult Não
Profanidade contentFilterDetectedResult Não
self_harm contentFilterSeverityResult Não
Sexual contentFilterSeverityResult Não
Violência contentFilterSeverityResult Não

contentFilterPromptResults

Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID.

Nome Tipo Descrição Obrigatório Padrão
custom_blocklists conteúdoFiltroDetalhadosResultados Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. Não
erro ErrorBase Não
Ódio contentFilterSeverityResult Não
indirect_attack contentFilterDetectedResult Não
Jailbreak contentFilterDetectedResult Não
Profanidade contentFilterDetectedResult Não
self_harm contentFilterSeverityResult Não
Sexual contentFilterSeverityResult Não
Violência contentFilterSeverityResult Não

conteúdoFiltroEscolhaResultados

Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre texto de terceiros e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID.

Nome Tipo Descrição Obrigatório Padrão
custom_blocklists conteúdoFiltroDetalhadosResultados Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. Não
erro ErrorBase Não
Ódio contentFilterSeverityResult Não
Profanidade contentFilterDetectedResult Não
protected_material_code conteúdoFiltroDetetadoComCitaçãoResultado Não
protected_material_text contentFilterDetectedResult Não
self_harm contentFilterSeverityResult Não
Sexual contentFilterSeverityResult Não
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult Não
Violência contentFilterSeverityResult Não

conteúdoFiltroDetalhadosResultados

Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados.

Nome Tipo Descrição Obrigatório Padrão
Detalhes matriz Não
filtrado Booleano Sim

promptFilterResultado

Resultados de filtragem de conteúdo para um único prompt no pedido.

Nome Tipo Descrição Obrigatório Padrão
content_filter_results contentFilterPromptResults Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. Não
prompt_index número inteiro Não

promptFilterResults

Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas.

Nenhuma propriedade definida para este componente.

dalleContentFilterResults

Informação sobre os resultados do filtro de conteúdo.

Nome Tipo Descrição Obrigatório Padrão
Ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
Sexual contentFilterSeverityResult Não
Violência contentFilterSeverityResult Não

dalleFilterResults

Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID.

Nome Tipo Descrição Obrigatório Padrão
custom_blocklists conteúdoFiltroDetalhadosResultados Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. Não
Ódio contentFilterSeverityResult Não
Jailbreak contentFilterDetectedResult Não
Profanidade contentFilterDetectedResult Não
self_harm contentFilterSeverityResult Não
Sexual contentFilterSeverityResult Não
Violência contentFilterSeverityResult Não

chatCompletionsRequestCommon

Nome Tipo Descrição Obrigatório Padrão
frequency_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. Não 0
logit_bias objecto Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. Não
max_completion_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Não
max_tokens número inteiro O número máximo de tokens permitido para a resposta gerada. Por defeito, o número de tokens que o modelo pode devolver será (4096 - tokens de prompt). Isto não é compatível com modelos da série O1. Não 4096
metadados objecto Etiquetas e valores definidos pelo programador usados para filtrar completações no painel de completações armazenadas. Não
presence_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. Não 0
Pára String ou array Até 4 sequências em que a API deixa de gerar mais tokens. Não
armazenar Booleano Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso nos nossos produtos de destilação ou avaliação de modelos. Não
fluxo Booleano Se definido, são enviados deltas parciais da mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Não Falso
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.
Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar o Azure OpenAI a monitorizar e detetar abusos. Não

createCompletionRequest

Nome Tipo Descrição Obrigatório Padrão
best_of número inteiro Gera best_of completações do lado do servidor e devolve o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.

Quando usado com n, best_of controla o número de concluições candidatas e n especifica quantas devolver. best_of deve ser maior que n.

Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop.
Não 1
Echo Booleano Repita o prompt além da conclusão
Não Falso
frequency_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
Não 0
logit_bias objecto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante.

Por exemplo, pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhuma
Logprobs número inteiro Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolverá uma lista dos 5 tokens mais prováveis. A API irá sempre devolver o logprob do token amostrado, pelo que pode haver até logprobs+1 até elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhuma
max_tokens número inteiro O número máximo de tokens que pode ser gerado na conclusão.

A contagem de tokens do teu prompt plus max_tokens não pode exceder o comprimento do contexto do modelo.
Não 16
n número inteiro Quantas conclusãos gerar para cada prompt.

Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop.
Não 1
presence_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas.
Não 0
avisar String ou array O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens.

Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treino, por isso, se não for especificado um prompt, o modelo gerará como se fosse do início de um novo documento.
Sim
Semente número inteiro Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.

O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend.
Não
Pára String ou array Até 4 sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens.
Não
fluxo Booleano Se deves reverter o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Exemplo de código em Python.
Não Falso
Sufixo cadeia (de caracteres) O sufixo que surge após a conclusão do texto inserido.

Este parâmetro é suportado apenas para gpt-3.5-turbo-instruct.
Não Nenhuma
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.

Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

createCompletionResponse

Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos como os não transmitidos partilham a mesma forma (ao contrário do endpoint do chat).

Nome Tipo Descrição Obrigatório Padrão
Escolhas matriz A lista de escolhas de conclusão que o modelo gerou para o prompt de entrada. Sim
criado número inteiro O carimbo temporal do Unix (em segundos) de quando a conclusão foi criada. Sim
id cadeia (de caracteres) Um identificador único para a completação. Sim
modelo cadeia (de caracteres) O modelo utilizado para a conclusão. Sim
objecto enumeração O tipo de objeto, que é sempre "text_completion"
Valores possíveis: text_completion
Sim
prompt_filter_results promptFilterResults Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas. Não
system_fingerprint cadeia (de caracteres) Esta impressão digital representa a configuração do backend com que o modelo corre.

Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo.
Não
utilização completionUtilização Estatísticas de utilização para o pedido de conclusão. Não

createChatCompletionRequest

Nome Tipo Descrição Obrigatório Padrão
Áudio objecto Parâmetros para saída de áudio. É obrigatório quando a saída de áudio é solicitada com modalities: ["audio"]. Não
└─ Formato enumeração Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16.

Valores possíveis: wav, mp3, flac, opus, pcm16
Não
└─ voz enumeração Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.

Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
Não
data_sources matriz As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional é compatível apenas com o Azure OpenAI.
Não
frequency_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
Não 0
function_call string ou chatCompletionFunctionCallOption Descontinuado em favor de tool_choice.

Controla qual (se existe) função é chamada pelo modelo.
none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.

none é o padrão quando não há funções presentes. auto é o padrão se as funções estiverem presentes.
Não
Funções matriz Descontinuado em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não
logit_bias objecto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia os tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante.
Não Nenhuma
Logprobs Booleano Se deve devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, devolve as probabilidades logarítmicas de cada token de saída devolvido no content de message. Não Falso
max_completion_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Não
max_tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo.
Não
Mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código em Python. Sim
metadados objecto Etiquetas e valores definidos pelo programador usados para filtrar completações no painel de completações armazenadas. Não
Modalidades ChatCompletionModalities Tipos de saída que gostaria que o modelo gerasse para este pedido.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:

["text", "audio"]
Não
n número inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. Não 1
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
predição Conteúdo de Previsão Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isto é mais comum quando se está a regenerar um ficheiro com apenas pequenas alterações na maior parte do conteúdo. Não
presence_penalty Número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas.
Não 0
reasoning_effort enumeração Apenas modelos O1

Limita o esforço de raciocínio para modelos de raciocínio.

Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.
Valores possíveis: low, medium, high
Não
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes do que gpt-3.5-turbo-1106.

A definição para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponde ao seu esquema JSON fornecido.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Semente número inteiro Esta funcionalidade está em Beta.
Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.
O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend.
Não
Pára String ou array Até 4 sequências em que a API deixa de gerar mais tokens.
Não
armazenar Booleano Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso nos nossos produtos de destilação ou avaliação de modelos. Não
fluxo Booleano Se definido, são enviados deltas parciais da mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Exemplo de código em Python.
Não Falso
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isto quando defines stream: true.
Não Nenhuma
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.

Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
tool_choice chatCompletionToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta. none é o padrão quando não há ferramentas presentes. auto é o padrão se houver ferramentas presentes. Não
Ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isto para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. São suportadas um máximo de 128 funções.
Não
top_logprobs número inteiro Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis a serem retornados em cada posição do token, cada um com uma probabilidade logarítmica associada. logprobs deve ser definido para true se este parâmetro for utilizado. Não
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
user_security_context userSecurityContext O contexto de segurança do utilizador contém vários parâmetros que descrevem a própria aplicação de IA e o utilizador final que interage com a aplicação de IA. Estes campos ajudam as suas equipas de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger as suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando o Microsoft Defender for Cloud. Não

userSecurityContext

O contexto de segurança do utilizador contém vários parâmetros que descrevem a própria aplicação de IA e o utilizador final que interage com a aplicação de IA. Estes campos ajudam as suas equipas de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger as suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando o Microsoft Defender for Cloud.

Nome Tipo Descrição Obrigatório Padrão
application_name cadeia (de caracteres) O nome da candidatura. Informações pessoais sensíveis não devem ser incluídas neste campo. Não
end_user_id cadeia (de caracteres) Este identificador é o ID de utilizador Microsoft Entra ID (anteriormente Azure Active Directory), usado para autenticar utilizadores finais dentro da aplicação de IA generativa. Informações pessoais sensíveis não devem ser incluídas neste campo. Não
end_user_tenant_id cadeia (de caracteres) O ID do tenant Microsoft 365 a que pertence o utilizador final. É obrigatório quando a aplicação de IA generativa é multi-inquilino. Não
source_ip cadeia (de caracteres) Captura o endereço IP original do cliente, aceitando tanto os formatos IPv4 como IPv6. Não

chatFunctionsCompletionT

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
Nome cadeia (de caracteres) O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
Parâmetros FunctionParameters Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não

chatCompletionFunctionCallOption

Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.

Nome Tipo Descrição Obrigatório Padrão
Nome cadeia (de caracteres) O nome da função a chamar. Sim

chatCompletionFunctionParameters

Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Nenhuma propriedade definida para este componente.

chatCompletionRequestMessage

Este componente pode ser um dos seguintes:

ChatCompletionRequestDeveloperMessage

Instruções fornecidas pelo programador que o modelo deve seguir, independentemente das mensagens enviadas pelo utilizador. Nos modelos O1 e mais recentes, developer as mensagens substituem as anteriores system .

Nome Tipo Descrição Obrigatório Padrão
conteúdo String ou array O conteúdo da mensagem do programador. Sim
Nome cadeia (de caracteres) Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. Não
função enumeração O papel do autor das mensagens, neste caso developer.
Valores possíveis: developer
Sim

chatCompletionRequestSystemMessage

Nome Tipo Descrição Obrigatório Padrão
conteúdo String ou array O conteúdo da mensagem do sistema. Sim
Nome cadeia (de caracteres) Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. Não
função enumeração O papel do autor das mensagens, neste caso system.
Valores possíveis: system
Sim

chatCompletionRequestUserMessage

Nome Tipo Descrição Obrigatório Padrão
conteúdo String ou array O conteúdo da mensagem do utilizador.
Sim
Nome cadeia (de caracteres) Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. Não
função enumeração O papel do autor das mensagens, neste caso user.
Valores possíveis: user
Sim

chatCompletionRequestAssistantMessage

Nome Tipo Descrição Obrigatório Padrão
conteúdo String ou array O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado.
Não
function_call objecto Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. Não
└─ Argumentos cadeia (de caracteres) Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. Não
└─ nome cadeia (de caracteres) O nome da função a chamar. Não
Nome cadeia (de caracteres) Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. Não
Recusa cadeia (de caracteres) A mensagem de recusa do assistente. Não
função enumeração O papel do autor das mensagens, neste caso assistant.
Valores possíveis: assistant
Sim
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de funções. Não

chatCompletionRequestToolMessage

Nome Tipo Descrição Obrigatório Padrão
conteúdo String ou array O conteúdo da mensagem da ferramenta. Sim
função enumeração O papel do autor das mensagens, neste caso tool.
Valores possíveis: tool
Sim
tool_call_id cadeia (de caracteres) Chamada de ferramenta à qual esta mensagem está a responder. Sim

chatCompletionRequestFunctionMessage

Nome Tipo Descrição Obrigatório Padrão
conteúdo cadeia (de caracteres) O conteúdo da mensagem funcional. Sim
Nome cadeia (de caracteres) O nome da função a chamar. Sim
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: function
Sim

chatCompletionRequestDeveloperMessageContentPart

Este componente pode ser um dos seguintes:

chatCompletionRequestSystemMessageContentPaper

Este componente pode ser um dos seguintes:

chatCompletionRequestUserMessageContentPart

Este componente pode ser um dos seguintes:

chatCompletionRequestAssistenteMensagemConteúdoParte

Este componente pode ser um dos seguintes:

chatCompletionRequestToolMessageContentPaper

Este componente pode ser um dos seguintes:

chatCompletionRequestMessageContentPartText

Nome Tipo Descrição Obrigatório Padrão
enviar SMS cadeia (de caracteres) O conteúdo do texto. Sim
tipo enumeração A parte do tipo de conteúdo.
Valores possíveis: text
Sim

chatCompletionRequestMessageContentPartAudio

Nome Tipo Descrição Obrigatório Padrão
input_audio objecto Sim
└─ dados cadeia (de caracteres) Dados de áudio codificados em Base64. Não
└─ Formato enumeração O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3".

Valores possíveis: wav, mp3
Não
tipo enumeração A parte do tipo de conteúdo. Sempre input_audio.
Valores possíveis: input_audio
Sim

chatCompletionRequestMessageContentPartImage

Nome Tipo Descrição Obrigatório Padrão
image_url objecto Sim
└─ detalhe enumeração Especifica o nível de detalhe da imagem. Saiba mais no guia Visão.
Valores possíveis: auto, low, high
Não
└─ URL cadeia (de caracteres) Ou uma URL da imagem ou os dados da imagem codificada base64. Não
tipo enumeração A parte do tipo de conteúdo.
Valores possíveis: image_url
Sim

chatCompletionRequestMessageContentPartRefusal

Nome Tipo Descrição Obrigatório Padrão
Recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Sim
tipo enumeração A parte do tipo de conteúdo.
Valores possíveis: refusal
Sim

azureChatExtensionConfiguration

Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.

###Discriminator for azureChatExtensionConfiguration

Este componente utiliza a propriedade type para discriminar entre diferentes tipos:

Valor de Tipo Esquema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguração
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguração
Nome Tipo Descrição Obrigatório Padrão
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Sim

azureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.

Propriedade Valor
Descrição Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Tipo cadeia (de caracteres)
Valores azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Azure Search quando usado como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
Parâmetros azureSearchChatExtensionParameters Parâmetros para Azure Search quando usados como extensão de chat Azure OpenAI. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Sim

azureSearchChatExtensionParameters

Parâmetros para Azure Search quando usados como extensão de chat Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
allow_partial_result Booleano Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManaged IdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource Não
ponto final cadeia (de caracteres) O caminho de endpoint absoluto para o recurso Azure Search usar. Sim
fields_mapping azureSearchIndexFieldMappingOptions Definições opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. Não
filtro cadeia (de caracteres) Filtro de pesquisa. Não
in_scope Booleano Se as consultas devem ser restringidas ao uso de dados indexados. Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. Não
index_name cadeia (de caracteres) O nome do índice a usar está disponível no recurso Azure Search referenciado. Sim
max_search_queries número inteiro O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. Não
semantic_configuration cadeia (de caracteres) A configuração semântica adicional para a consulta. Não
Rigor número inteiro A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. Não
top_n_documents número inteiro O número superior configurado de documentos a apresentar para a consulta configurada. Não

azureSearchIndexFieldMappingOptions

Definições opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.

Nome Tipo Descrição Obrigatório Padrão
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
content_fields_separator cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
filepath_field cadeia (de caracteres) O nome do campo índice a usar como caminho de ficheiro. Não
image_vector_fields matriz Os nomes dos campos que representam dados vetoriais de imagem. Não
title_field cadeia (de caracteres) O nome do campo índice a usar como título. Não
url_field cadeia (de caracteres) O nome do campo índice a usar como URL. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Não

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.

Propriedade Valor
Descrição O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.
Tipo cadeia (de caracteres)
Valores simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
Parâmetros azureCosmosDBChatExtensionParameters Parâmetros a usar ao configurar as extensões do chat Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Sim

azureCosmosDBChatExtensionParameters

Parâmetros a usar ao configurar as extensões do chat Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Nome Tipo Descrição Obrigatório Padrão
allow_partial_result Booleano Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação para Azure OpenAI On Your Data ao usar uma string de ligação. Sim
container_name cadeia (de caracteres) O nome do contentor de recursos Azure Cosmos DB. Sim
database_name cadeia (de caracteres) O nome da base de dados MongoDB vCore para usar com o Azure Cosmos DB. Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim
fields_mapping azureCosmosDBFieldMappingOptions Definições opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado. Sim
in_scope Booleano Se as consultas devem ser restringidas ao uso de dados indexados. Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. Não
index_name cadeia (de caracteres) O nome do índice MongoDB vCore para usar com o Azure Cosmos DB. Sim
max_search_queries número inteiro O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
Rigor número inteiro A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. Não
top_n_documents número inteiro O número superior configurado de documentos a apresentar para a consulta configurada. Não

azureCosmosDBFieldMappingOptions

Definições opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado.

Nome Tipo Descrição Obrigatório Padrão
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
filepath_field cadeia (de caracteres) O nome do campo índice a usar como caminho de ficheiro. Não
title_field cadeia (de caracteres) O nome do campo índice a usar como título. Não
url_field cadeia (de caracteres) O nome do campo índice a usar como URL. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Sim

elasticsearchChatExtensionConfiguração

Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
Parâmetros elasticsearchChatExtensionParameters Parâmetros a usar ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Sim

elasticsearchChatExtensionParameters

Parâmetros a usar ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
allow_partial_result Booleano Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource Não
ponto final cadeia (de caracteres) O ponto final do Elasticsearch®. Sim
fields_mapping elasticsearchIndexFieldMappingOptions Definições opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. Não
in_scope Booleano Se as consultas devem ser restringidas ao uso de dados indexados. Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. Não
index_name cadeia (de caracteres) O nome do índice Elasticsearch®. Sim
max_search_queries número inteiro O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
query_type elasticsearchQueryType O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao utilizá-la como extensão de chat Azure OpenAI. Não
Rigor número inteiro A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. Não
top_n_documents número inteiro O número superior configurado de documentos a apresentar para a consulta configurada. Não

elasticsearchIndexFieldMappingOptions

Definições opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.

Nome Tipo Descrição Obrigatório Padrão
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
content_fields_separator cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
filepath_field cadeia (de caracteres) O nome do campo índice a usar como caminho de ficheiro. Não
title_field cadeia (de caracteres) O nome do campo índice a usar como título. Não
url_field cadeia (de caracteres) O nome do campo índice a usar como URL. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Não

elasticsearchQueryType

O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao utilizá-la como extensão de chat Azure OpenAI.

Propriedade Valor
Descrição O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao utilizá-la como extensão de chat Azure OpenAI.
Tipo cadeia (de caracteres)
Valores simple
vector

mongoDBChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
Parâmetros mongoDBChatExtensionParameters Parâmetros a usar ao configurar as extensões de chat Azure OpenAI On Your Data ao usar a base de dados Mongo. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Sim

mongoDBChatExtensionParameters

Parâmetros a usar ao configurar as extensões de chat Azure OpenAI On Your Data ao usar a base de dados Mongo.

Nome Tipo Descrição Obrigatório Padrão
allow_partial_result Booleano Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. Não Falso
app_name cadeia (de caracteres) O nome da Aplicação de Base de Dados Mongo. Sim
autenticação onOOVosTDataNomeUtilizadorEPasswordOpções de Autenticação As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de utilizador e uma palavra-passe. Sim
collection_name cadeia (de caracteres) O nome da Coleção Mongo DB. Sim
database_name cadeia (de caracteres) O nome da base de dados Mongo. Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim
ponto final cadeia (de caracteres) O nome do endpoint do cluster Mongo DB. Sim
fields_mapping mongoDBFieldMappingOptions Definições opcionais para controlar como os campos são processados ao usar um recurso de base de dados Mongo configurado. Sim
in_scope Booleano Se as consultas devem ser restringidas ao uso de dados indexados. Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. Não
index_name cadeia (de caracteres) O nome do índice da base de dados Mongo. Sim
max_search_queries número inteiro O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
Rigor número inteiro A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. Não
top_n_documents número inteiro O número superior configurado de documentos a apresentar para a consulta configurada. Não

mongoDBFieldMappingOptions

Definições opcionais para controlar como os campos são processados ao usar um recurso de base de dados Mongo configurado.

Nome Tipo Descrição Obrigatório Padrão
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
filepath_field cadeia (de caracteres) O nome do campo índice a usar como caminho de ficheiro. Não
title_field cadeia (de caracteres) O nome do campo índice a usar como título. Não
url_field cadeia (de caracteres) O nome do campo índice a usar como URL. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Sim

pineconeChatExtensionConfiguração

Uma representação específica de opções configuráveis para o Pinecone quando o usa como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
Parâmetros Parâmetros de ExtensãoChatPinecone Parâmetros para configurar as extensões de chat Azure OpenAI Pinecone. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
A utilização desta configuração é compatível apenas com o Azure OpenAI.
Sim

Parâmetros de ExtensãoChatPinecone

Parâmetros para configurar as extensões de chat Azure OpenAI Pinecone.

Nome Tipo Descrição Obrigatório Padrão
allow_partial_result Booleano Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API. Sim
embedding_dependency onYourDataDeploymentNameVectorizationSource Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, que se baseia num nome de implementação de modelo interno de embeddings no mesmo recurso Azure OpenAI. Sim
ambiente cadeia (de caracteres) O nome ambiental de Pinecone. Sim
fields_mapping PineconeFieldMappingOptions Definições opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. Sim
in_scope Booleano Se as consultas devem ser restringidas ao uso de dados indexados. Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. Não
index_name cadeia (de caracteres) O nome do índice da base de dados Pinecone. Sim
max_search_queries número inteiro O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
Rigor número inteiro A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. Não
top_n_documents número inteiro O número superior configurado de documentos a apresentar para a consulta configurada. Não

PineconeFieldMappingOptions

Definições opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.

Nome Tipo Descrição Obrigatório Padrão
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
filepath_field cadeia (de caracteres) O nome do campo índice a usar como caminho de ficheiro. Não
title_field cadeia (de caracteres) O nome do campo índice a usar como título. Não
url_field cadeia (de caracteres) O nome do campo índice a usar como URL. Não

onYourDataAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data.

Discriminador para onYourDataAuthenticationOptions

Este componente utiliza a propriedade type para discriminar entre diferentes tipos:

Valor de Tipo Esquema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManaged IdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onOOVosTDataNomeUtilizadorEPasswordOpções de Autenticação
Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataContextProperty

A propriedade de contexto.

Propriedade Valor
Descrição A propriedade de contexto.
Tipo cadeia (de caracteres)
Valores citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.

Propriedade Valor
Descrição Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.
Tipo cadeia (de caracteres)
Valores api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API.

Nome Tipo Descrição Obrigatório Padrão
chave cadeia (de caracteres) A chave da API a usar para autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma string de ligação.

Nome Tipo Descrição Obrigatório Padrão
connection_string cadeia (de caracteres) A cadeia de ligação a usar para autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataKeyAndKeyIdAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar um par de chave e ID de chave Elasticsearch.

Nome Tipo Descrição Obrigatório Padrão
chave cadeia (de caracteres) A chave Elasticsearch para usar na autenticação. Não
key_id cadeia (de caracteres) O ID da chave Elasticsearch para usar na autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataEncodedApiKeyAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API codificada em Elasticsearch.

Nome Tipo Descrição Obrigatório Padrão
encoded_api_key cadeia (de caracteres) A chave API codificada pelo Elasticsearch para usar na autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataAccessTokenAuthenticationOptions

As opções de autenticação do Azure OpenAI nos Seus Dados ao usar o token de acesso.

Nome Tipo Descrição Obrigatório Padrão
access_token cadeia (de caracteres) O token de acesso a usar para autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataSystemAssignedManaged IdentityAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao utilizar uma identidade gerida atribuída pelo sistema.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao utilizar uma identidade gerida atribuída pelo utilizador.

Nome Tipo Descrição Obrigatório Padrão
managed_identity_resource_id cadeia (de caracteres) O ID de recurso da identidade gerida atribuída pelo utilizador a usar para autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim

onOOVosTDataNomeUtilizadorEPasswordOpções de Autenticação

As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de utilizador e uma palavra-passe.

Nome Tipo Descrição Obrigatório Padrão
palavra-passe cadeia (de caracteres) A palavra-passe. para usar para autenticação. Não
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Sim
nome de utilizador cadeia (de caracteres) O nome de utilizador a usar para autenticação. Não

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para Azure OpenAI On Your Data com pesquisa vetorial.

Este componente utiliza a propriedade type para discriminar entre diferentes tipos:

Valor de Tipo Esquema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. Sim

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial.

Propriedade Valor
Descrição Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial.
Tipo cadeia (de caracteres)
Valores endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, que se baseia numa chamada pública de endpoint Azure OpenAI para embeddings.

Nome Tipo Descrição Obrigatório Padrão
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Não
Dimensões número inteiro O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. Não
ponto final cadeia (de caracteres) Especifica a URL do endpoint de recurso a partir da qual os embeddings devem ser recuperados. Deve estar no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta versão da API não é permitido. Não
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. Sim

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, baseia-se num nome de implementação de modelo interno de embeddings no mesmo recurso Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
deployment_name cadeia (de caracteres) Especifica o nome da implementação do modelo a usar para vetorização. Esta implementação do modelo deve estar no mesmo recurso Azure OpenAI, mas a On Your Data irá usar esta implementação do modelo através de uma chamada interna em vez de pública, o que permite a pesquisa vetorial mesmo em redes privadas. Não
Dimensões número inteiro O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. Não
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. Sim

onYourDataIntegratedVectorizationSource

Representa o vetorizador integrado definido dentro do recurso de pesquisa.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. Sim

onYourDataModelIdVectorizationSource

Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, baseia-se num ID de modelo de serviço de pesquisa. Atualmente apenas suportado pelo Elasticsearch®.

Nome Tipo Descrição Obrigatório Padrão
model_id cadeia (de caracteres) Especifica o ID do modelo a usar para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. Não
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. Sim

azureChatExtensionsMessageContext

Uma representação da informação adicional de contexto disponível quando extensões de chat Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Esta informação de contexto só é preenchida quando se utiliza um pedido Azure OpenAI configurado para usar uma extensão correspondente.

Nome Tipo Descrição Obrigatório Padrão
all_retrieved_documents matriz Todos os documentos recuperados. Não
Citações matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. Não
intenção cadeia (de caracteres) A intenção detetada do histórico da conversa, usada para passar para o turno seguinte para manter o contexto. Não

Citação

Informação de citação para uma mensagem de resposta de conclusão de chat.

Nome Tipo Descrição Obrigatório Padrão
chunk_id cadeia (de caracteres) A identificação do bloco da citação. Não
conteúdo cadeia (de caracteres) O conteúdo da citação. Sim
Caminho do ficheiro cadeia (de caracteres) O caminho do ficheiro da citação. Não
rerank_score Número A pontuação de reclassificação do documento recuperado. Não
Título cadeia (de caracteres) O título da citação. Não
URL cadeia (de caracteres) O URL da citação. Não

consultadoDocumento

O documento recuperado.

Nome Tipo Descrição Obrigatório Padrão
chunk_id cadeia (de caracteres) A identificação do bloco da citação. Não
conteúdo cadeia (de caracteres) O conteúdo da citação. Sim
data_source_index número inteiro O índice da fonte de dados. Não
Caminho do ficheiro cadeia (de caracteres) O caminho do ficheiro da citação. Não
filter_reason filterRazão A razão de filtragem do documento recuperado. Não
original_search_score Número A pontuação original da pesquisa do documento recuperado. Não
rerank_score Número A pontuação de reclassificação do documento recuperado. Não
search_queries matriz As consultas de pesquisa usadas para recuperar o documento. Não
Título cadeia (de caracteres) O título da citação. Não
URL cadeia (de caracteres) O URL da citação. Não

filterRazão

A razão de filtragem do documento recuperado.

Propriedade Valor
Descrição A razão de filtragem do documento recuperado.
Tipo cadeia (de caracteres)
Valores score
rerank

chatCompletionMessageToolCall

Nome Tipo Descrição Obrigatório Padrão
função objecto A função que o modelo chamou. Sim
└─ Argumentos cadeia (de caracteres) Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. Não
└─ nome cadeia (de caracteres) O nome da função a chamar. Não
id cadeia (de caracteres) O ID da chamada de ferramenta. Sim
tipo toolCallType O tipo de chamada da ferramenta, neste caso function. Sim

toolCallType

O tipo de chamada da ferramenta, neste caso function.

Propriedade Valor
Descrição O tipo de chamada da ferramenta, neste caso function.
Tipo cadeia (de caracteres)
Valores function

chatCompletionRequestMessageTool

Nome Tipo Descrição Obrigatório Padrão
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Não
tool_call_id cadeia (de caracteres) Chamada de ferramenta à qual esta mensagem está a responder. Não

chatCompletionRequestMessageFunction

Nome Tipo Descrição Obrigatório Padrão
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Não
Nome cadeia (de caracteres) O conteúdo da mensagem. Não
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: function
Não

createChatCompletionResponse

Representa uma resposta de conclusão de chat devolvida pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Obrigatório Padrão
Escolhas matriz Uma lista de opções para completar o chat. Pode ser mais do que um se n for maior que 1. Sim
criado número inteiro O carimbo temporal do Unix (em segundos) de quando a conclusão do chat foi criada. Sim
id cadeia (de caracteres) Um identificador único para a conclusão da conversa. Sim
modelo cadeia (de caracteres) O modelo usado para completar o chat. Sim
objecto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Sim
prompt_filter_results promptFilterResults Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas. Não
system_fingerprint cadeia (de caracteres) Esta impressão digital representa a configuração do backend com que o modelo corre.

Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo.
Não
utilização completionUtilização Estatísticas de utilização para o pedido de conclusão. Não

createChatCompletionStreamResponse

Representa um segmento transmitido de uma resposta de conclusão de chat devolvida pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Obrigatório Padrão
Escolhas matriz Uma lista de opções para completar o chat. Pode conter mais do que um elemento se n for maior que 1.
Sim
criado número inteiro O carimbo temporal do Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo temporal. Sim
id cadeia (de caracteres) Um identificador único para a conclusão da conversa. Cada bloco tem o mesmo ID. Sim
modelo cadeia (de caracteres) O modelo para gerar a completude. Sim
objecto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Sim
system_fingerprint cadeia (de caracteres) Esta impressão digital representa a configuração do backend com que o modelo corre.
Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo.
Não

chatCompletionStreamRespostaDelta

Um delta de conclusão do chat gerado pelas respostas do modelo em streaming.

Nome Tipo Descrição Obrigatório Padrão
conteúdo cadeia (de caracteres) O conteúdo da mensagem do bloco. Não
function_call objecto Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. Não
└─ Argumentos cadeia (de caracteres) Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. Não
└─ nome cadeia (de caracteres) O nome da função a chamar. Não
Recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Não
função enumeração O papel do autor desta mensagem.
Valores possíveis: system, user, assistant, tool
Não
tool_calls matriz Não

chatCompletionMessageToolCallChunk

Nome Tipo Descrição Obrigatório Padrão
função objecto Não
└─ Argumentos cadeia (de caracteres) Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. Não
└─ nome cadeia (de caracteres) O nome da função a chamar. Não
id cadeia (de caracteres) O ID da chamada de ferramenta. Não
indexar número inteiro Sim
tipo enumeração O tipo da ferramenta. Atualmente, só function é suportado.
Valores possíveis: function
Não

chatCompletionStreamOptions

Opções para resposta ao streaming. Só define isto quando defines stream: true.

Nome Tipo Descrição Obrigatório Padrão
include_usage Booleano Se ativado, um segmento adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de utilização do token para todo o pedido, e o choices campo será sempre um array vazio. Todos os outros chunks também incluirão um usage campo, mas com valor nulo.
Não

chatCompletionChoiceLogProbs

Regista a informação de probabilidade da escolha.

Nome Tipo Descrição Obrigatório Padrão
conteúdo matriz Uma lista de tokens de conteúdo de mensagens com informação de probabilidade logarítmica. Sim
Recusa matriz Uma lista de tokens de recusa de mensagens com informação de probabilidade logarítmica. Não

chatCompletionTokenLogprob

Nome Tipo Descrição Obrigatório Padrão
Bytes matriz Uma lista de inteiros que representa a representação UTF-8 bytes do token. Útil em casos em que os caracteres são representados por múltiplos tokens e as suas representações em bytes têm de ser combinadas para gerar a representação correta do texto. Pode ser null se não houver representação em bytes para o token. Sim
logprob Número A probabilidade logarítmica deste token. Sim
token cadeia (de caracteres) O token. Sim
top_logprobs matriz Lista dos tokens mais prováveis e a sua probabilidade logarítmica, nesta posição do token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. Sim

chatCompletionResponseMessage

Uma mensagem de conclusão do chat gerada pelo modelo.

Nome Tipo Descrição Obrigatório Padrão
Áudio objecto Se a modalidade de saída de áudio for solicitada, este objeto contém dados sobre a resposta áudio do modelo. Não
└─ dados cadeia (de caracteres) Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado no pedido.
Não
└─ expires_at número inteiro O carimbo temporal do Unix (em segundos) para quando esta resposta áudio deixará de estar acessível no servidor para uso em conversas com múltiplos turnos.
Não
└─ ID cadeia (de caracteres) Identificador único para esta resposta áudio. Não
└─ transcrição cadeia (de caracteres) Transcrição do áudio gerado pelo modelo. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
contexto azureChatExtensionsMessageContext Uma representação da informação adicional de contexto disponível quando extensões de chat Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Esta informação de contexto só é preenchida quando se utiliza um pedido Azure OpenAI configurado para usar uma extensão correspondente. Não
function_call chatCompletionFunctionCall Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. Não
Recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Sim
função chatCompletionRespostaMensagemPapel O papel do autor da mensagem de resposta. Sim
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de funções. Não

chatCompletionRespostaMensagemPapel

O papel do autor da mensagem de resposta.

Propriedade Valor
Descrição O papel do autor da mensagem de resposta.
Tipo cadeia (de caracteres)
Valores assistant

chatCompletionToolChoiceOption

Controla qual (se houver) ferramenta chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta. none é o padrão quando não há ferramentas presentes. auto é o padrão se houver ferramentas presentes.

Este componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Obrigatório Padrão
função objecto Sim
└─ nome cadeia (de caracteres) O nome da função a chamar. Não
tipo enumeração O tipo da ferramenta. Atualmente, só function é suportado.
Valores possíveis: function
Sim

ParalelToolCalls

Se deve ativar a chamada paralela de funções durante a utilização da ferramenta.

Nenhuma propriedade definida para este componente.

Conteúdo de Previsão

Conteúdo de saída estático previsto, como o conteúdo de um ficheiro de texto que está a ser regenerado.

Nome Tipo Descrição Obrigatório Padrão
conteúdo String ou array O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a este conteúdo, toda a resposta do modelo pode ser devolvida muito mais rapidamente. Sim
tipo enumeração O tipo de conteúdo previsto que quer fornecer. Este tipo é atualmente sempre content.
Valores possíveis: content
Sim

chatCompletionMessageToolCalls

As chamadas de ferramenta geradas pelo modelo, como chamadas de funções.

Nenhuma propriedade definida para este componente.

ChatCompletionModalities

Tipos de saída que gostaria que o modelo gerasse para este pedido. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:

["text", "audio"]

Nenhuma propriedade definida para este componente.

chatCompletionFunctionCall

Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo.

Nome Tipo Descrição Obrigatório Padrão
Argumentos cadeia (de caracteres) Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. Sim
Nome cadeia (de caracteres) O nome da função a chamar. Sim

completionUtilização

Estatísticas de utilização para o pedido de conclusão.

Nome Tipo Descrição Obrigatório Padrão
completion_tokens número inteiro Número de tokens na conclusão gerada. Sim
completion_tokens_details objecto Divisão dos tokens usados numa conclusão. Não
└─ accepted_prediction_tokens número inteiro Ao usar Saídas Previstas, o número de tokens na previsão que apareceu na completação. Não
└─ audio_tokens número inteiro Tokens de entrada de áudio gerados pelo modelo. Não
└─ reasoning_tokens número inteiro Tokens gerados pelo modelo para raciocínio. Não
└─ rejected_prediction_tokens número inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, tal como os tokens de raciocínio, estes tokens continuam a ser contados no total de tokens de conclusão para efeitos de faturação, saída e limites de janela de contexto. Não
prompt_tokens número inteiro Número de tokens no prompt. Sim
prompt_tokens_details objecto Detalhes dos tokens do prompt. Não
└─ audio_tokens número inteiro Tokens de entrada de áudio presentes no prompt. Não
└─ cached_tokens número inteiro O número de tokens de prompt em cache. Não
total_tokens número inteiro Número total de tokens usados no pedido (prompt + conclusão). Sim

chatCompletionTool

Nome Tipo Descrição Obrigatório Padrão
função FunctionObject Sim
tipo enumeração O tipo da ferramenta. Atualmente, só function é suportado.
Valores possíveis: function
Sim

FunctionParameters

Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para este componente.

FunctionObject

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
Nome cadeia (de caracteres) O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
Parâmetros FunctionParameters Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não
estrito Booleano Se deve permitir a adesão estrita ao esquema ao gerar a chamada de função. Se definido como verdadeiro, o modelo seguirá exatamente o esquema definido no parameters campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. Não Falso

RespostaFormatoTexto

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração O tipo de formato de resposta definido: text
Valores possíveis: text
Sim

ResponseFormatJsonObject

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração O tipo de formato de resposta definido: json_object
Valores possíveis: json_object
Sim

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.

Nenhuma propriedade definida para este componente.

ResponseFormatJsonSchema

Nome Tipo Descrição Obrigatório Padrão
json_schema objecto Sim
└─ Descrição cadeia (de caracteres) Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder nesse formato. Não
└─ nome cadeia (de caracteres) O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. Não
└─ Esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. Não
└─ Rigoroso Booleano Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo seguirá sempre o esquema exato definido no schema campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. Não Falso
tipo enumeração O tipo de formato de resposta definido: json_schema
Valores possíveis: json_schema
Sim

chatCompletionChoiceCommon

Nome Tipo Descrição Obrigatório Padrão
finish_reason cadeia (de caracteres) Não
indexar número inteiro Não

createTranslationRequest

Pedido de tradução.

Nome Tipo Descrição Obrigatório Padrão
ficheiro cadeia (de caracteres) O ficheiro de áudio para traduzir. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O enunciado deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
Temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. Não 0

audioResponse

Resposta de tradução ou transcrição quando response_format era json

Nome Tipo Descrição Obrigatório Padrão
enviar SMS cadeia (de caracteres) Texto traduzido ou transcrito. Sim

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Nome Tipo Descrição Obrigatório Padrão
Duração Número Duração. Não
linguagem cadeia (de caracteres) Linguagem. Não
Segmentos matriz Não
tarefa cadeia (de caracteres) Tipo de tarefa áudio. Não
enviar SMS cadeia (de caracteres) Texto traduzido ou transcrito. Sim
Palavras matriz Não

audioResponseFormat

Define o formato da saída.

Propriedade Valor
Descrição Define o formato da saída.
Tipo cadeia (de caracteres)
Valores json
text
srt
verbose_json
vtt

createTranscriptionRequest

Pedido de transcrição.

Nome Tipo Descrição Obrigatório Padrão
ficheiro cadeia (de caracteres) O objeto do ficheiro áudio para transcrever. Sim
linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. Não
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
Temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. Não 0
timestamp_granularities[] matriz As granularidades do carimbo temporal para preencher esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo temporal. Uma ou ambas estas opções são suportadas: word, ou segment. Nota: Não existe latência adicional para carimbos temporais de segmentos, mas gerar carimbos temporais de palavra implica latência adicional. Não ['segmento']

áudioSegmento

Segmento de transcrição ou tradução.

Nome Tipo Descrição Obrigatório Padrão
avg_logprob Número Probabilidade logarítmica média. Não
compression_ratio Número Taxa de compressão. Não
fim Número Deslocamento no final do segmento. Não
id número inteiro Identificador de segmento. Não
no_speech_prob Número Probabilidade de 'não falar'. Não
procurar Número Deslocamento do segmento. Não
Início Número Início do segmento deslocado. Não
Temperatura Número Temperatura. Não
enviar SMS cadeia (de caracteres) Texto do segmento. Não
Tokens matriz Símbolos do texto. Não

audioWord

Palavra de transcrição ou tradução.

Nome Tipo Descrição Obrigatório Padrão
fim Número Deslocamento de fim de palavra. Não
Início Número Início de palavra deslocado. Não
word cadeia (de caracteres) Palavra Não

createSpeechRequest

Pedido de discurso.

Nome Tipo Descrição Obrigatório Padrão
dados introduzidos cadeia (de caracteres) O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Sim
response_format enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, wav, pcm
Não
Velocidade Número A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é o padrão. Não 1.0
Voz enumeração A voz a usar para síntese de voz.
Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
Sim

Qualidade de imagem

A qualidade da imagem que será gerada.

Propriedade Valor
Descrição A qualidade da imagem que será gerada.
Tipo cadeia (de caracteres)
Padrão Auto
Valores auto
high
medium
low
hd
standard

imagesResponseFormat

O formato em que as imagens geradas são devolvidas.

Propriedade Valor
Descrição O formato em que as imagens geradas são devolvidas.
Tipo cadeia (de caracteres)
Padrão URL
Valores url
b64_json

imagesOutputFormat

O formato de ficheiro no qual as imagens geradas são devolvidas. Só é suportado para modelos em série.

Propriedade Valor
Descrição O formato de ficheiro no qual as imagens geradas são devolvidas. Apenas suportado para modelos da série gpt-image-1.
Tipo cadeia (de caracteres)
Padrão PNG
Valores png
jpeg

imageSize

O tamanho das imagens geradas.

Propriedade Valor
Descrição O tamanho das imagens geradas.
Tipo cadeia (de caracteres)
Padrão Auto
Valores auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

O estilo das imagens geradas. Só é suportado para DALL-E-3.

Propriedade Valor
Descrição O estilo das imagens geradas. Só é suportado para DALL-E-3.
Tipo cadeia (de caracteres)
Padrão vívido
Valores vivid
natural

imageContexto

Permite definir transparência para o fundo da(s) imagem(s) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1.

Propriedade Valor
Descrição Permite definir transparência para o fundo da(s) imagem(s) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1.
Tipo cadeia (de caracteres)
Padrão Auto
Valores transparent
opaque
auto

imageGenerationsRequest

Nome Tipo Descrição Obrigatório Padrão
em segundo plano imageContexto Permite definir transparência para o fundo da(s) imagem(s) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1. Não Auto
n número inteiro O número de imagens a gerar. Para dall-e-3, apenas n=1 é suportado. Não 1
output_compression número inteiro O nível de compressão (0-100%) para as imagens geradas. Este parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. Não 100
output_format imagesOutputFormat O formato de ficheiro no qual as imagens geradas são devolvidas. Apenas suportado para modelos da série gpt-image-1. Não PNG
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para modelos da série gpt-image-1 e 4000 caracteres para dall-e-3 Sim
Qualidade Qualidade de imagem A qualidade da imagem que será gerada. Não Auto
response_format imagesResponseFormat O formato em que as imagens geradas são devolvidas. Só é suportado para DALL-E-3. Não URL
Tamanho imageSize O tamanho das imagens geradas. Não Auto
Estilo imageStyle O estilo das imagens geradas. Só é suportado para DALL-E-3. Não vívido
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

imageEditsRequest

Nome Tipo Descrição Obrigatório Padrão
imagem String ou array A(s) imagem(s) a editar. Deve ser um ficheiro de imagem suportado ou um array de imagens. Cada imagem deve ser um ficheiro png ou jpg com menos de 25MB. Sim
máscara cadeia (de caracteres) Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se forem fornecidas várias imagens, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. Não
n número inteiro O número de imagens a gerar. Não 1
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. Sim
Qualidade Qualidade de imagem A qualidade da imagem que será gerada. Não Auto
response_format imagesResponseFormat O formato em que as imagens geradas são devolvidas. Não URL
Tamanho imageSize O tamanho das imagens geradas. Não Auto
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

gerarImagensResposta

Nome Tipo Descrição Obrigatório Padrão
criado número inteiro O carimbo temporal do unix quando a operação foi criada. Sim
dados matriz Os dados de resultado da operação, se bem-sucedidos Sim
utilização imageGeraçõesUtilização Representa detalhes de utilização de tokens para pedidos de geração de imagens. Apenas para modelos da série GPT-image-1. Não

imageResultado

O URL da imagem ou imagem codificada se for bem-sucedido, e um erro caso contrário.

Nome Tipo Descrição Obrigatório Padrão
b64_json cadeia (de caracteres) A imagem codificada base64 Não
content_filter_results dalleContentFilterResults Informação sobre os resultados do filtro de conteúdo. Não
prompt_filter_results dalleFilterResults Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. Não
revised_prompt cadeia (de caracteres) O prompt que foi usado para gerar a imagem, caso tenha havido alguma revisão ao prompt. Não
URL cadeia (de caracteres) O URL da imagem. Não

imageGeraçõesUtilização

Representa detalhes de utilização de tokens para pedidos de geração de imagens. Apenas para modelos da série GPT-image-1.

Nome Tipo Descrição Obrigatório Padrão
input_tokens número inteiro O número de tokens de entrada. Não
input_tokens_details objecto Uma análise detalhada dos tokens de entrada. Não
└─ image_tokens número inteiro O número de tokens de imagem. Não
└─ text_tokens número inteiro O número de tokens de texto. Não
output_tokens número inteiro O número de tokens de saída. Não
total_tokens número inteiro O número total de fichas usadas. Não

linha

Um objeto linha de conteúdo constituído por uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.

Nome Tipo Descrição Obrigatório Padrão
Vãos matriz Um array de spans que representam objetos detetados e a sua informação da caixa delimitadora. Sim
enviar SMS cadeia (de caracteres) Sim

Vão

Um objeto span que representa um objeto detetado e a sua informação da caixa delimitadora.

Nome Tipo Descrição Obrigatório Padrão
Duração número inteiro O comprimento do espaço em caracteres, medido em pontos de código Unicode. Sim
Deslocamento número inteiro O deslocamento do carácter dentro do texto onde o espaço começa. Este deslocamento é definido como a posição do primeiro carácter do espaço, contando a partir do início do texto como pontos de código Unicode. Sim
Polígono matriz Um array de objetos que representa pontos no polígono que envolve o objeto detetado. Sim
enviar SMS cadeia (de caracteres) O conteúdo textual do espaço que representa o objeto detetado. Sim

runCompletionUsage

Estatísticas de utilização relacionadas com a corrida. Este valor será null se a execução não estiver num estado terminal (ou seja, in_progress, queued, etc.).

Nome Tipo Descrição Obrigatório Padrão
completion_tokens número inteiro Número de fichas de conclusão usadas ao longo da corrida. Sim
prompt_tokens número inteiro Número de tokens de prompt usados ao longo da corrida. Sim
total_tokens número inteiro Número total de tokens usados (prompt + completion). Sim

runStepCompletionUsage

Estatísticas de utilização relacionadas com o passo de corrida. Este valor será null enquanto o estado do passo de corrida for in_progress.

Nome Tipo Descrição Obrigatório Padrão
completion_tokens número inteiro Número de tokens de conclusão usados ao longo do passo de corrida. Sim
prompt_tokens número inteiro Número de tokens de prompt usados ao longo do passo de corrida. Sim
total_tokens número inteiro Número total de tokens usados (prompt + completion). Sim

assistentesApiRespostaFormatoOpção

Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.

Este componente pode ser um dos seguintes:

assistentesApiResponseFormat

Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools for permitido ser passado para a Run. Se text o modelo conseguir devolver texto ou qualquer valor necessário.

Nome Tipo Descrição Obrigatório Padrão
tipo cadeia (de caracteres) Deve ser um dos text ou json_object. Não enviar SMS

tipo Enum: AssistentesApiRespostaFormato

Valor Descrição
enviar SMS
json_object

assistenteObjeto

Representa um assistant que pode chamar o modelo e usar ferramentas.

Nome Tipo Descrição Obrigatório Padrão
created_at número inteiro O carimbo temporal do Unix (em segundos) indica quando o assistente foi criado. Sim
Descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Sim
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
Instruções cadeia (de caracteres) As instruções do sistema que o assistente utiliza. O comprimento máximo é de 256.000 caracteres.
Sim
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Sim
modelo cadeia (de caracteres) ID do modelo a usar. Sim
Nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre assistant. Sim
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O ID do armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function.
Sim []
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1

objeto Enum: AssistenteObjectTipo

Valor Descrição
assistente O tipo de objeto, que é sempre assistente

createAssistantRequest

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente utiliza. O comprimento máximo é de 256.000 caracteres.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) Sim
Nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1

modificaAssistentePedido

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente utiliza. O comprimento máximo é de 32768 caracteres.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) Não
Nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Sobrepõe a lista de IDs de ficheiros disponibilizados à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz Sobrepõe o armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1

deleteAssistenteResposta

Nome Tipo Descrição Obrigatório Padrão
apagado Booleano Sim
id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteAssistantResponseState

Valor Descrição
assistente.eliminado

listaAssistentesResposta

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

assistenteToolsCode

Nome Tipo Descrição Obrigatório Padrão
tipo cadeia (de caracteres) O tipo de ferramenta a definir: code_interpreter Sim

tipo Enum: assistenteToolsCodeType

Valor Descrição
code_interpreter

AssistenteFerramentasFileSearch

Nome Tipo Descrição Obrigatório Padrão
file_search objecto Sobrescreve para a ferramenta de pesquisa de ficheiros. Não
└─ max_num_results número inteiro O número máximo de resultados que a ferramenta de pesquisa de ficheiros deve gerar. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve estar entre 1 e 50, inclusive.

Note que a ferramenta de pesquisa de ficheiros pode gerar menos resultados do que max_num_results os resultados.
Não
tipo cadeia (de caracteres) O tipo de ferramenta a definir: file_search Sim

tipo Enum: assistenteFerramentasFicheiroPesquisaTipo

Valor Descrição
file_search

AssistenteFerramentasFicheiroPesquisaSó

Nome Tipo Descrição Obrigatório Padrão
tipo cadeia (de caracteres) O tipo de ferramenta a definir: file_search Sim

tipo Enum: assistenteFerramentasFicheiroPesquisaTipo

Valor Descrição
file_search

assistenteFunçãoFerramentas

Nome Tipo Descrição Obrigatório Padrão
função objecto A definição da função. Sim
└─ Descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. Não
└─ Parâmetros chatCompletionFunctionParameters Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Não
tipo cadeia (de caracteres) O tipo de ferramenta a definir: function Sim

tipo Enum: assistenteFerramentasFunção

Valor Descrição
função

truncationObject

Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução.

Nome Tipo Descrição Obrigatório Padrão
last_messages número inteiro O número de mensagens mais recentes da thread ao construir o contexto para a execução. Não
tipo cadeia (de caracteres) A estratégia de truncamento a usar para a thread. O padrão é auto. Se definido para last_messages, o thread será truncado para as n mensagens mais recentes do thread. Quando definido para auto, mensagens no meio da thread serão descartadas para se ajustar ao comprimento contextual do modelo, max_prompt_tokens. Sim

tipo Enum: TruncationType

Valor Descrição
Auto
last_messages

assistentesApiToolChoiceOption

Controla qual (se houver) ferramenta chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem. auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.

Este componente pode ser um dos seguintes:

assistentesEscolhaFerramentaNomeada

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.

Nome Tipo Descrição Obrigatório Padrão
função objecto Não
└─ nome cadeia (de caracteres) O nome da função a chamar. Não
tipo cadeia (de caracteres) O tipo da ferramenta. Se o tipo for function, o nome da função deve ser definido Sim

tipo Enum: AssistentesNomeadoEscolhaFerramenta

Valor Descrição
função
code_interpreter
file_search

runObject

Representa uma execução em threads.

Nome Tipo Descrição Obrigatório Padrão
assistant_id cadeia (de caracteres) O ID do assistente usado para a execução desta execução. Sim
cancelled_at número inteiro O carimbo de tempo do Unix (em segundos) indica quando a execução foi cancelada. Sim
completed_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a execução foi concluída. Sim
created_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a execução foi criada. Sim
expires_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a execução expira. Sim
failed_at número inteiro O carimbo temporal do Unix (em segundos) para quando a execução falhou. Sim
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
incomplete_details objecto Detalhes sobre porque é que a série está incompleta. Vai ficar null se a corrida não estiver incompleta. Sim
└─ Razão cadeia (de caracteres) A razão pela qual a série está incompleta. Isto indicará qual o limite específico de tokens atingido ao longo da corrida. Não
Instruções cadeia (de caracteres) As instruções que o assistente usou para esta corrida. Sim
last_error objecto O último erro associado a esta corrida. Será null se não houver erros. Sim
└─ código cadeia (de caracteres) Um de server_error ou rate_limit_exceeded. Não
└─ Mensagem cadeia (de caracteres) Uma descrição legível para humanos do erro. Não
max_completion_tokens número inteiro O número máximo de tokens de conclusão especificados para terem sido usados ao longo da corrida.
Sim
max_prompt_tokens número inteiro O número máximo de tokens de prompt especificados a serem usados ao longo da execução.
Sim
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Sim
modelo cadeia (de caracteres) O modelo que o assistente usou nesta corrida. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.run. Sim
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
required_action objecto Detalhes sobre a ação necessária para continuar a corrida. Será null se não for necessária qualquer ação. Sim
└─ submit_tool_outputs objecto Detalhes sobre as saídas das ferramentas necessárias para que esta corrida continue. Não
└─ tool_calls matriz Uma lista das chamadas de ferramentas relevantes. Não
└─ Tipo enumeração Por agora, isto é sempre submit_tool_outputs.
Valores possíveis: submit_tool_outputs
Não
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Sim
started_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a execução foi iniciada. Sim
estado cadeia (de caracteres) O estado da sequência, que pode ser , queuedin_progress, requires_action, cancelling, cancelled, failed, completed, , ou expired. Sim
Temperatura Número A temperatura de amostragem utilizada nesta corrida. Se não estiver definido, por defeito é 1. Não
thread_id cadeia (de caracteres) O ID dos threads em que foi executado como parte desta execução. Sim
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.
Sim
Ferramentas matriz A lista de ferramentas que o assistente usou nesta corrida. Sim []
top_p Número O valor de amostragem do núcleo usado nesta corrida. Se não estiver definido, por defeito é 1. Não
truncation_strategy truncationObject Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. Sim
utilização runCompletionUsage Estatísticas de utilização relacionadas com a corrida. Este valor será null se a execução não estiver num estado terminal (ou seja, in_progress, queued, etc.). Sim

object Enum: runObjectType

Valor Descrição
thread.run O tipo de objeto run que é sempre thread.run

status Enum: RunObjectStatus

Valor Descrição
em fila O estado em fila
in_progress O estado in_progress
requires_action O estado required_action
Cancelamento O estado de cancelamento
cancelado O estado extinto
Falhou O estado falhado
concluído O estado concluído
expirado O estado expirado

createRunRequest

Nome Tipo Descrição Obrigatório Padrão
additional_instructions cadeia (de caracteres) Acrescenta instruções adicionais no final das instruções para a corrida. Isto é útil para modificar o comportamento a cada execução sem sobrepor outras instruções. Não
additional_messages matriz Adiciona mensagens adicionais ao tópico antes de criar a execução. Não
assistant_id cadeia (de caracteres) O ID do assistente a usar para executar esta execução. Sim
Instruções cadeia (de caracteres) Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. Não
max_completion_tokens número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações.
Não
max_prompt_tokens número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) O ID do Modelo a ser usado para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
fluxo Booleano Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem.
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.
Não
Ferramentas matriz Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. Não
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1
truncation_strategy truncationObject Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. Não

listRunsResponse

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

modifyRunRequest

Nome Tipo Descrição Obrigatório Padrão
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não

submitToolOutputsRunRequest

Nome Tipo Descrição Obrigatório Padrão
fluxo Booleano Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem.
Não
tool_outputs matriz Uma lista das ferramentas para as quais os resultados estão a ser submetidos. Sim

runToolCallObject

Chamadas de objetos de ferramenta

Nome Tipo Descrição Obrigatório Padrão
função objecto A definição da função. Sim
└─ Argumentos cadeia (de caracteres) Os argumentos que o modelo espera que passes à função. Não
└─ nome cadeia (de caracteres) O nome da função. Não
id cadeia (de caracteres) O ID da chamada de ferramenta. Este ID deve ser referenciado quando submeter as saídas da ferramenta usando as saídas da ferramenta para executar o endpointendpoint. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta para a qual a saída é necessária. Por agora, isto é sempre function. Sim

tipo Enum: RunToolCallObjectType

Valor Descrição
função

createThreadAndRunRequest

Nome Tipo Descrição Obrigatório Padrão
assistant_id cadeia (de caracteres) O ID do assistente a usar para executar esta execução. Sim
Instruções cadeia (de caracteres) Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. Não
max_completion_tokens número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações.
Não
max_prompt_tokens número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações.
Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
modelo cadeia (de caracteres) O ID dos modelos a serem usados para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
parallel_tool_calls ParalelToolCalls Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. Não Verdade
response_format assistentesApiRespostaFormatoOpção Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Não
fluxo Booleano Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem.
Não
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isto quando defines stream: true.
Não Nenhuma
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Não 1
conversa createThreadRequest Não
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.
Não
tool_resources objecto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O ID do armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente.
Não
Ferramentas matriz Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. Não
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou a temperatura, mas não ambos.
Não 1
truncation_strategy truncationObject Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. Não

threadObject

Representa um fio que contém mensagens.

Nome Tipo Descrição Obrigatório Padrão
created_at número inteiro O timestamp do Unix (em segundos) indica quando a thread foi criada. Sim
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread. Sim
tool_resources objecto Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Sim
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não

object Enum: ThreadObjectType

Valor Descrição
conversa O tipo de objeto thread que é sempre thread

createThreadRequest

Nome Tipo Descrição Obrigatório Padrão
Mensagens matriz Uma lista de mensagens para começar o tópico. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
tool_resources objecto Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este fio. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não

ModificaThreadRequest

Nome Tipo Descrição Obrigatório Padrão
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
tool_resources objecto Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial.
Não
└─ code_interpreter objecto Não
└─ file_ids matriz Uma lista de IDs de ficheiro disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta.
Não []
└─ file_search objecto Não
└─ vector_store_ids matriz O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread.
Não

deleteThreadResponse

Nome Tipo Descrição Obrigatório Padrão
apagado Booleano Sim
id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteThreadResponseObjectState

Valor Descrição
thread.deleted O estado do objeto delete thread response que é thread.deleted

listaThreadsResposta

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

messageObject

Representa uma mensagem dentro de um thread.

Nome Tipo Descrição Obrigatório Padrão
assistant_id cadeia (de caracteres) Se aplicável, o ID do assistente que redigiu esta mensagem. Sim
Anexos matriz Uma lista de ficheiros anexados à mensagem e as ferramentas a que foram adicionados. Sim
completed_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a mensagem foi concluída. Sim
conteúdo matriz O conteúdo da mensagem em conjunto de texto e/ou imagens. Sim
created_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a mensagem foi criada. Sim
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
incomplete_at número inteiro O carimbo temporal do Unix (em segundos) indicava quando a mensagem era marcada como incompleta. Sim
incomplete_details objecto Numa mensagem incompleta, detalhes sobre o motivo pelo qual a mensagem está incompleta. Sim
└─ Razão cadeia (de caracteres) A razão pela qual a mensagem está incompleta. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.message. Sim
função cadeia (de caracteres) A entidade que produziu a mensagem. Um de user ou assistant. Sim
run_id cadeia (de caracteres) Se aplicável, o ID da execução associada à autoria desta mensagem. Sim
estado cadeia (de caracteres) O estado da mensagem, que pode ser , in_progressincomplete, ou completed. Sim
thread_id cadeia (de caracteres) O ID da thread a que esta mensagem pertence. Sim

objeto Enum: MessageObjectType

Valor Descrição
thread.message O tipo de objeto mensagem, que é thread.message

status Enum: MessageObjectStatus

Valor Descrição
in_progress
incompleto
concluído

role Enum: MessageObjectRole

Valor Descrição
utilizador
assistente

messageDeltaObject

Representa um delta de mensagem, ou seja, quaisquer campos alterados numa mensagem durante o streaming.

Nome Tipo Descrição Obrigatório Padrão
Delta objecto O delta que contém os campos que mudaram na Mensagem. Sim
└─ Conteúdo matriz O conteúdo da mensagem em conjunto de texto e/ou imagens. Não
└─ Papel cadeia (de caracteres) A entidade que produziu a mensagem. Um de user ou assistant. Não
id cadeia (de caracteres) O identificador da mensagem, que pode ser referenciado nos endpoints da API. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.message.delta. Sim

object Enum: MessageDeltaObjectType

Valor Descrição
thread.message.delta

CreateMessageRequest

Nome Tipo Descrição Obrigatório Padrão
Anexos matriz Uma lista de ficheiros anexados à mensagem e as ferramentas a que devem ser adicionados. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
função cadeia (de caracteres) O papel da entidade que está a criar a mensagem. Os valores permitidos incluem:
- user: Indica que a mensagem foi enviada por um utilizador real e deve ser usada na maioria dos casos para representar mensagens geradas pelo utilizador.
- assistant: Indica que a mensagem é gerada pelo assistente. Use este valor para inserir mensagens do assistente na conversa.
Sim

role Enum: CreateMessageRequestRole

Valor Descrição
utilizador
assistente

ModifyMessageRequest

Nome Tipo Descrição Obrigatório Padrão
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não

deleteMessageResponse

Nome Tipo Descrição Obrigatório Padrão
apagado Booleano Sim
id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteMessageResponseObject

Valor Descrição
thread.message.deleted O estado do objeto delete message response

listaMensagensResposta

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

mensagemConteúdoImageImageFileObject

Faz referência a um ficheiro de imagem no conteúdo de uma mensagem.

Nome Tipo Descrição Obrigatório Padrão
image_file objecto Sim
└─ file_id cadeia (de caracteres) O ID do ficheiro da imagem no conteúdo da mensagem. Não
tipo cadeia (de caracteres) Sempre image_file. Sim

tipo Enum: MessageContentImageFileObjectType

Valor Descrição
image_file O tipo de ficheiro de imagem de conteúdo da mensagem

messageContentTextObject

O conteúdo textual que faz parte de uma mensagem.

Nome Tipo Descrição Obrigatório Padrão
enviar SMS objecto Sim
└─ Anotações matriz Não
└─ Valor cadeia (de caracteres) Os dados que compõem o texto. Não
tipo cadeia (de caracteres) Sempre text. Sim

tipo Enum: mensagemConteúdoTextoObjetoType

Valor Descrição
enviar SMS O conteúdo da mensagem texto Tipo de objeto

mensagemConteúdoTextoAnotaçõesFicheiroCitaçãoObjeto

Uma citação dentro da mensagem que aponta para uma citação específica de um ficheiro específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar ficheiros.

Nome Tipo Descrição Obrigatório Padrão
end_index número inteiro Sim
file_citation objecto Sim
└─ file_id cadeia (de caracteres) O ID do ficheiro específico de onde a citação provém. Não
start_index número inteiro Sim
enviar SMS cadeia (de caracteres) O texto na mensagem é o conteúdo que precisa de ser substituído. Sim
tipo cadeia (de caracteres) Sempre file_citation. Sim

tipo Enum: FileCitationObjectType

Valor Descrição
file_citation O tipo de objeto de citação do ficheiro

mensagemConteúdoTextoAnotaçõesObjetoCaminhoDeFicheiro

Um URL para o ficheiro que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um ficheiro.

Nome Tipo Descrição Obrigatório Padrão
end_index número inteiro Sim
file_path objecto Sim
└─ file_id cadeia (de caracteres) O ID do ficheiro que foi gerado. Não
start_index número inteiro Sim
enviar SMS cadeia (de caracteres) O texto na mensagem é o conteúdo que precisa de ser substituído. Sim
tipo cadeia (de caracteres) Sempre file_path. Sim

tipo Enum: FilePathObjectType

Valor Descrição
file_path O tipo de objeto path do ficheiro

messageDeltaContentImageFileObject

Faz referência a um ficheiro de imagem no conteúdo de uma mensagem.

Nome Tipo Descrição Obrigatório Padrão
image_file objecto Não
└─ file_id cadeia (de caracteres) O ID do ficheiro da imagem no conteúdo da mensagem. Não
indexar número inteiro O índice da parte de conteúdo na mensagem. Sim
tipo cadeia (de caracteres) Sempre image_file. Sim

tipo Enum: MessageDeltaContentImageFileObjectType

Valor Descrição
image_file

messageDeltaContentTextObject

O conteúdo textual que faz parte de uma mensagem.

Nome Tipo Descrição Obrigatório Padrão
indexar número inteiro O índice da parte de conteúdo na mensagem. Sim
enviar SMS objecto Não
└─ Anotações matriz Não
└─ Valor cadeia (de caracteres) Os dados que compõem o texto. Não
tipo cadeia (de caracteres) Sempre text. Sim

tipo Enum: MessageDeltaContentTextObjectType

Valor Descrição
enviar SMS

mensagemDeltaConteúdoTextoAnotaçõesFicheiroCitaçãoObjeto

Uma citação dentro da mensagem que aponta para uma citação específica de um ficheiro específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar ficheiros.

Nome Tipo Descrição Obrigatório Padrão
end_index número inteiro Não
file_citation objecto Não
└─ file_id cadeia (de caracteres) O ID do ficheiro específico de onde a citação provém. Não
└─ citação cadeia (de caracteres) A citação específica no processo. Não
indexar número inteiro O índice da anotação na parte do conteúdo do texto. Sim
start_index número inteiro Não
enviar SMS cadeia (de caracteres) O texto na mensagem é o conteúdo que precisa de ser substituído. Não
tipo cadeia (de caracteres) Sempre file_citation. Sim

tipo Enum: MensagemDeltaConteúdoTextoAnotaçõesFicheiroCitaçãoObjetoType

Valor Descrição
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Um URL para o ficheiro que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um ficheiro.

Nome Tipo Descrição Obrigatório Padrão
end_index número inteiro Não
file_path objecto Não
└─ file_id cadeia (de caracteres) O ID do ficheiro que foi gerado. Não
indexar número inteiro O índice da anotação na parte do conteúdo do texto. Sim
start_index número inteiro Não
enviar SMS cadeia (de caracteres) O texto na mensagem é o conteúdo que precisa de ser substituído. Não
tipo cadeia (de caracteres) Sempre file_path. Sim

tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

Valor Descrição
file_path

runStepObject

Representa um passo na execução de uma sequência.

Nome Tipo Descrição Obrigatório Padrão
assistant_id cadeia (de caracteres) O ID do assistente associado ao passo de corrida. Sim
cancelled_at número inteiro O carimbo temporal do Unix (em segundos) indicava quando o passo de execução era cancelado. Sim
completed_at número inteiro O carimbo temporal do Unix (em segundos) indica quando o passo de execução terminou. Sim
created_at número inteiro O carimbo temporal do Unix (em segundos) indica quando o passo de execução foi criado. Sim
expired_at número inteiro O timestamp do Unix (em segundos) indica quando o passo de execução expirou. Um passo é considerado expirado se a corrida principal estiver expirada. Sim
failed_at número inteiro O carimbo temporal do Unix (em segundos) para quando o passo de execução falhou. Sim
id cadeia (de caracteres) O identificador do passo de execução, que pode ser referenciado nos endpoints da API. Sim
last_error objecto O último erro associado a este passo de corrida. Será null se não houver erros. Sim
└─ código cadeia (de caracteres) Um de server_error ou rate_limit_exceeded. Não
└─ Mensagem cadeia (de caracteres) Uma descrição legível para humanos do erro. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre assistant.run.step. Sim
run_id cadeia (de caracteres) O ID da execução da qual este passo faz parte. Sim
estado cadeia (de caracteres) O estado da sequência, que pode ser , in_progresscancelled, failed, completed, ou expired. Sim
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Os detalhes do passo de corrida. Sim
thread_id cadeia (de caracteres) O ID dos tópicos que foram executados. Sim
tipo cadeia (de caracteres) O tipo de passo de corrida, que pode ser ou message_creationtool_calls. Sim

object Enum: RunStepObjectType

Valor Descrição
assistente.corre.passo O tipo de objeto, que é sempre assistant.run.step

tipo Enum: RunStepObjectType

Valor Descrição
message_creation O passo message_creation corrida
tool_calls O passo tool_calls corrida

status Enum: RunStepObjectStatus

Valor Descrição
in_progress O estado da in_progress corrida
cancelado O estado da corrida cancelada
Falhou O estado da corrida cancelada
concluído O estado da corrida cancelada
expirado O estado da corrida cancelada

runStepDeltaObject

Representa um delta de run step, ou seja, quaisquer campos alterados num run step durante o streaming.

Nome Tipo Descrição Obrigatório Padrão
Delta objecto O delta que contém os campos que mudaram no passo de corrida. Sim
└─ step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Os detalhes do passo de corrida. Não
id cadeia (de caracteres) O identificador do passo de execução, que pode ser referenciado nos endpoints da API. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.run.step.delta. Sim

object Enum: RunStepDeltaObjectType

Valor Descrição
thread.run.step.delta

listaCorrerPassosResposta

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

runStepDetailsMessageCreationObject

Detalhes da criação da mensagem pelo passo de execução.

Nome Tipo Descrição Obrigatório Padrão
message_creation objecto Sim
└─ message_id cadeia (de caracteres) O ID da mensagem criada por este passo de execução. Não
tipo cadeia (de caracteres) Sempre message_creation. Sim

tipo Enum: RunStepDetailsMessageCreationObjectType

Valor Descrição
message_creation

runStepDeltaStepDetailsMessageCreationObject

Detalhes da criação da mensagem pelo passo de execução.

Nome Tipo Descrição Obrigatório Padrão
message_creation objecto Não
└─ message_id cadeia (de caracteres) O ID da mensagem criada por este passo de execução. Não
tipo cadeia (de caracteres) Sempre message_creation. Sim

tipo Enum: RunStepDeltaStepDetailsMessageCreationObjectType

Valor Descrição
message_creation

runStepDetailsToolCallsObject

Detalhes da chamada à ferramenta.

Nome Tipo Descrição Obrigatório Padrão
tool_calls matriz Uma série de chamadas de ferramenta em que o passo de execução estava envolvido. Estas podem estar associadas a um de três tipos de ferramentas: code_interpreter, retrieval ou function.
Sim
tipo cadeia (de caracteres) Sempre tool_calls. Sim

tipo Enum: RunStepDetailsToolCallsObjectType

Valor Descrição
tool_calls

runStepDeltaStepDetailsToolCallsObject

Detalhes da chamada à ferramenta.

Nome Tipo Descrição Obrigatório Padrão
tool_calls matriz Uma série de chamadas de ferramenta em que o passo de execução estava envolvido. Estas podem estar associadas a um de três tipos de ferramentas: code_interpreter, file_search ou function.
Não
tipo cadeia (de caracteres) Sempre tool_calls. Sim

tipo Enum: RunStepDeltaStepsToolsCallsObjectType

Valor Descrição
tool_calls

runStepDetailsToolCallsCodeObject

Os detalhes da ferramenta Code Interpreter chamam o passo de execução em que estavam envolvidos.

Nome Tipo Descrição Obrigatório Padrão
code_interpreter objecto A definição da ferramenta de Interpretador de Código. Sim
└─ Entrada cadeia (de caracteres) A entrada para a ferramenta Code Interpreter chama. Não
└─ Saídas matriz As saídas da ferramenta Code Interpreter chamam. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um destes é representado por um tipo de objeto diferente. Não
id cadeia (de caracteres) O ID da chamada de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isto vai ser code_interpreter sempre para este tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDetailsToolCallsCodeObjectType

Valor Descrição
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Os detalhes da ferramenta Code Interpreter chamam o passo de execução em que estavam envolvidos.

Nome Tipo Descrição Obrigatório Padrão
code_interpreter objecto A definição da ferramenta de Interpretador de Código. Não
└─ Entrada cadeia (de caracteres) A entrada para a ferramenta Code Interpreter chama. Não
└─ Saídas matriz As saídas da ferramenta Code Interpreter chamam. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um destes é representado por um tipo de objeto diferente. Não
id cadeia (de caracteres) O ID da chamada de ferramenta. Não
indexar número inteiro O índice da chamada de ferramenta no array de chamadas de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isto vai ser code_interpreter sempre para este tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDeltaStepsToolCallsCodeObjectType

Valor Descrição
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

A saída de texto da ferramenta Code Interpreter chama como parte de um passo de execução.

Nome Tipo Descrição Obrigatório Padrão
registos cadeia (de caracteres) A saída de texto da ferramenta Code Interpreter chama. Sim
tipo cadeia (de caracteres) Sempre logs. Sim

tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Valor Descrição
registos

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

A saída de texto da ferramenta Code Interpreter chama como parte de um passo de execução.

Nome Tipo Descrição Obrigatório Padrão
indexar número inteiro O índice da saída no array de saídas. Sim
registos cadeia (de caracteres) A saída de texto da ferramenta Code Interpreter chama. Não
tipo cadeia (de caracteres) Sempre logs. Sim

tipo Enum: RunStepDeltaStepDetalhesFerramentaChamadasCodeOutputLogsObjectType

Valor Descrição
registos

runStepDetailsToolCallsCodeOutputImageObject

Nome Tipo Descrição Obrigatório Padrão
imagem objecto Sim
└─ file_id cadeia (de caracteres) O ID do ficheiro da imagem. Não
tipo cadeia (de caracteres) Sempre image. Sim

tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

Valor Descrição
imagem

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Nome Tipo Descrição Obrigatório Padrão
imagem objecto Não
└─ file_id cadeia (de caracteres) O ID do ficheiro da imagem. Não
indexar número inteiro O índice da saída no array de saídas. Sim
tipo cadeia (de caracteres) Sempre image. Sim

tipo Enum: RunStepDeltaDetalhesFerramentaChamadasCodeImageOutputImageObject

Valor Descrição
imagem

runStepDetailsToolCallsFileSearchObject

Nome Tipo Descrição Obrigatório Padrão
file_search objecto Por agora, isto vai ser sempre um objeto vazio. Sim
└─ Resultados matriz Os resultados da pesquisa no ficheiro. Não
id cadeia (de caracteres) O ID da ferramenta chama objeto. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isto vai ser file_search sempre para este tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDetailsToolCallsFileSearchObjectType

Valor Descrição
file_search

runStepDetailsToolCallsFileSearchResultObject

Uma instância de resultado da pesquisa de ficheiros.

Nome Tipo Descrição Obrigatório Padrão
conteúdo matriz O conteúdo do resultado que foi encontrado. O conteúdo só é incluído se solicitado através do parâmetro de consulta de inclusão. Não
file_id cadeia (de caracteres) O ID do ficheiro onde esse resultado foi encontrado. Sim
file_name cadeia (de caracteres) O nome do ficheiro onde o resultado foi encontrado. Sim
classificação Número A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Sim

runStepDeltaStepDetailsToolCallsFileSearchObject

Nome Tipo Descrição Obrigatório Padrão
file_search objecto Por agora, isto vai ser sempre um objeto vazio. Sim
id cadeia (de caracteres) O ID da ferramenta chama objeto. Não
indexar número inteiro O índice da chamada de ferramenta no array de chamadas de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isto vai ser retrieval sempre para este tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDeltaStepsToolsCallsFileSearchObjectType

Valor Descrição
file_search

runStepDetailsToolCallsFunctionObject

Nome Tipo Descrição Obrigatório Padrão
função objecto A definição da função que foi chamada. Sim
└─ Argumentos cadeia (de caracteres) Os argumentos passaram para a função. Não
└─ nome cadeia (de caracteres) O nome da função. Não
└─ Saída cadeia (de caracteres) A saída da função. Isto acontecerá null se os resultados ainda não tiverem sido submetidos. Não
id cadeia (de caracteres) O ID da ferramenta chama objeto. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isto vai ser function sempre para este tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDetailsToolcallsFunctionObjectType

Valor Descrição
função

runStepDeltaStepsToolsCallsFunctionObject

Nome Tipo Descrição Obrigatório Padrão
função objecto A definição da função que foi chamada. Não
└─ Argumentos cadeia (de caracteres) Os argumentos passaram para a função. Não
└─ nome cadeia (de caracteres) O nome da função. Não
└─ Saída cadeia (de caracteres) A saída da função. Isto acontecerá null se os resultados ainda não tiverem sido submetidos. Não
id cadeia (de caracteres) O ID da ferramenta chama objeto. Não
indexar número inteiro O índice da chamada de ferramenta no array de chamadas de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isto vai ser function sempre para este tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDetailsToolcallsFunctionObjectType

Valor Descrição
função

vectorStoreExpirationAfter

A política de expiração para uma loja vetorial.

Nome Tipo Descrição Obrigatório Padrão
âncora cadeia (de caracteres) Carimbo temporal da âncora, após o qual se aplica a apólice de validade. Âncoras suportadas: last_active_at. Sim
Dias número inteiro O número de dias após o tempo de ancoragem em que o armazenamento vetorial expirará. Sim

âncora Enum: VectorStoreExpirationAfterAnchor

Valor Descrição
last_active_at O carimbo temporal da âncora após o qual se aplica a apólice de validade.

vectorStoreObject

Um armazenamento vetorial é uma coleção de ficheiros processados que podem ser usados pela file_search ferramenta.

Nome Tipo Descrição Obrigatório Padrão
created_at número inteiro O carimbo de tempo Unix (em segundos) para quando a memória vetorial foi criada. Sim
expires_after vectorStoreExpirationAfter A política de expiração para uma loja vetorial. Não
expires_at número inteiro O carimbo temporal do Unix (em segundos) indica quando a loja vetorial expira. Não
file_counts objecto Sim
└─ cancelado número inteiro O número de ficheiros que foram cancelados. Não
└─ concluído número inteiro O número de ficheiros que foram processados com sucesso. Não
└─ falhou número inteiro O número de ficheiros que não foram processados. Não
└─ in_progress número inteiro O número de ficheiros que estão atualmente a ser processados. Não
└─ total número inteiro O número total de ficheiros. Não
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
last_active_at número inteiro O carimbo temporal do Unix (em segundos) indica quando o armazenamento vetorial esteve ativo pela última vez. Sim
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Sim
Nome cadeia (de caracteres) O nome da loja vetorial. Sim
objecto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vector_store
Sim
estado cadeia (de caracteres) O estado do armazenamento vetorial, que pode ser , expiredin_progress, ou completed. Um estado de completed indica que o armazenamento vetorial está pronto para uso. Sim
usage_bytes número inteiro O número total de bytes usados pelos ficheiros na loja vetorial. Sim

status Enum: VectorStoreObjectStatus

Valor Descrição
expirado
in_progress
concluído

createVectorStoreRequest

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Só se aplica se file_ids estiver não vazio. Não
expires_after vectorStoreExpirationAfter A política de expiração para uma loja vetorial. Não
file_ids matriz Uma lista de IDs de ficheiros que o armazenamento vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
Nome cadeia (de caracteres) O nome da loja vetorial. Não

updateVectorStoreRequest

Nome Tipo Descrição Obrigatório Padrão
expires_after vectorStoreExpirationAfter A política de expiração para uma loja vetorial. Não
metadados objecto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres.
Não
Nome cadeia (de caracteres) O nome da loja vetorial. Não

listVectorStoresResponse

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

deleteVectorStoreResponse

Nome Tipo Descrição Obrigatório Padrão
apagado Booleano Sim
id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteVectorStoreResponseObject

Valor Descrição
vector_store.deleted O estado do objeto de resposta armazenar o vetor delete

vectorStoreFileObject

Uma lista de ficheiros anexados a uma loja vetorial.

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Só se aplica se file_ids estiver não vazio. Não
created_at número inteiro O carimbo temporal do Unix (em segundos) para quando o ficheiro de armazenamento vetorial foi criado. Sim
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
last_error objecto O último erro associado a este ficheiro de armazenamento vetorial. Será null se não houver erros. Sim
└─ código cadeia (de caracteres) Um de server_error ou invalid_file ou unsupported_file. Não
└─ Mensagem cadeia (de caracteres) Uma descrição legível para humanos do erro. Não
objecto cadeia (de caracteres) O tipo de objeto, que é sempre vector_store.file. Sim
estado cadeia (de caracteres) O estado do ficheiro de armazenamento vetorial, que pode ser , in_progresscompleted, cancelled, ou failed. O estado completed indica que o ficheiro de armazenamento vetorial está pronto para uso. Sim
usage_bytes número inteiro A utilização total de vetores armazena em bytes. Note que isto pode ser diferente do tamanho original do ficheiro. Sim
vector_store_id cadeia (de caracteres) O ID do armazenamento vetorial a que o ficheiro está ligado. Sim

objeto Enum: VectorStoreFileObjectType

Valor Descrição
vector_store.file

status Enum: VectorStoreFileObjectStatus

Valor Descrição
in_progress
concluído
cancelado
Falhou

outrosChunkingEstratégiaRespostaParam

Isto é devolvido quando a estratégia de fragmentação é desconhecida. Normalmente, isto deve-se ao facto de o ficheiro ter sido indexado antes de o chunking_strategy conceito ser introduzido na API.

Nome Tipo Descrição Obrigatório Padrão
tipo cadeia (de caracteres) Sempre other. Sim

tipo Enum: OtherChunkingStrategyResponseParamType

Valor Descrição
Outros

staticChunkingEstratégiaRespostaParam

Nome Tipo Descrição Obrigatório Padrão
estático staticChunkingEstratégia Sim
tipo cadeia (de caracteres) Sempre static. Sim

tipo Enum: StaticChunkingStrategyResponseParamType

Valor Descrição
estático

staticChunkingEstratégia

Nome Tipo Descrição Obrigatório Padrão
chunk_overlap_tokens número inteiro O número de tokens que se sobrepõem entre blocos. O valor padrão é 400.

Note-se que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Sim
max_chunk_size_tokens número inteiro O número máximo de fichas em cada bloco. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. Sim

autoChunkingStrategyRequestParam

A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração Sempre auto.
Valores possíveis: auto
Sim

staticChunkingStrategyRequestParam

Nome Tipo Descrição Obrigatório Padrão
estático staticChunkingEstratégia Sim
tipo enumeração Sempre static.
Valores possíveis: static
Sim

chunkingStrategyRequestParam

A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia.

Este componente pode ser um dos seguintes:

createVectorStoreFileRequest

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Não
file_id cadeia (de caracteres) Um ID de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. Sim

listaVectorArmazenarFicheirosResposta

Nome Tipo Descrição Obrigatório Padrão
dados matriz Sim
first_id cadeia (de caracteres) Sim
has_more Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

deleteVectorStoreFileResponse

Nome Tipo Descrição Obrigatório Padrão
apagado Booleano Sim
id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteVectorStoreFileResponseObject

Valor Descrição
vector_store.file.deleted

vectorStoreFileBatchObject

Um lote de ficheiros ligados a um armazenamento vetorial.

Nome Tipo Descrição Obrigatório Padrão
created_at número inteiro O timestamp Unix (em segundos) para quando os ficheiros de armazenamento vetorial foram criados em lote. Sim
file_counts objecto Sim
└─ cancelado número inteiro O número de ficheiros que foram cancelados. Não
└─ concluído número inteiro O número de ficheiros que foram processados. Não
└─ falhou número inteiro O número de ficheiros que não foram processados. Não
└─ in_progress número inteiro O número de ficheiros que estão atualmente a ser processados. Não
└─ total número inteiro O número total de ficheiros. Não
id cadeia (de caracteres) O identificador, que pode ser referenciado nos endpoints da API. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre vector_store.file_batch. Sim
estado cadeia (de caracteres) O estado dos ficheiros de armazenamento vetorial em lote, que pode ser , in_progresscompleted, cancelled ou failed. Sim
vector_store_id cadeia (de caracteres) O ID da loja vetorial onde o ficheiro está ligado. Sim

objeto Enum: VectorStoreFileBatchObjectType

Valor Descrição
vector_store.ficheiros_batch

status Enum: VectorStoreFileBatchObjectStatus

Valor Descrição
in_progress
concluído
cancelado
Falhou

createVectorStoreFileBatchRequest

Nome Tipo Descrição Obrigatório Padrão
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Não
file_ids matriz Uma lista de IDs de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. Sim

assistenteStreamEvent

Representa um evento emitido ao transmitir uma Run.

Cada evento num fluxo de eventos enviado pelo servidor tem uma event propriedade e:data

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está a ser transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução termina, e assim sucessivamente. Quando um Assistente escolhe criar uma mensagem durante uma execução, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.

Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos gerir eventos desconhecidos de forma elegante no seu código.

Este componente pode ser um dos seguintes:

EventoThreadStream

Este componente pode ser um dos seguintes:

thread.created

Ocorre quando é criado um novo thread.

Nome Tipo Descrição Obrigatório Padrão
dados threadObject Representa um fio que contém mensagens. Sim
evento cadeia (de caracteres) Sim

Data: threadObject

Event Enum: ThreadStreamEventEnum

Valor Descrição
thread.created O evento criado pelo fio

runStreamEvent

Este componente pode ser um dos seguintes:

thread.run.created

Ocorre quando uma nova sequência é criada.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Event Enum: RunStreamEventCreated

Valor Descrição
thread.run.created

thread.run.queued

Ocorre quando uma sequência passa para um queued estado.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Event Enum: RunStreamEventQueued

Valor Descrição
thread.run.queued

thread.run.in_progress

Ocorre quando uma sequência passa para um in_progress estado.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Event Enum: RunStreamEventInProgress

Valor Descrição
thread.run.in_progress

thread.run.requires_action

Ocorre quando uma sequência passa para um requires_action estado.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Event Enum: RunStreamEventNecessitesAction

Valor Descrição
thread.run.requires_action

thread.run.completed

Ocorre quando uma corrida é concluída.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Evento Enum: RunStreamEventConcluído

Valor Descrição
thread.run.completed

thread.run.failed

Ocorre quando uma corrida falha.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Evento Enum: RunStreamEventFailed

Valor Descrição
thread.run.failed

thread.run.cancelling

Ocorre quando uma sequência passa para um cancelling estado.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Evento Enum: RunStreamEventCancelling

Valor Descrição
thread.run.cancelling

thread.run.cancelled

Ocorre quando uma corrida é cancelada.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Evento Enum: RunStreamEventCancelled

Valor Descrição
thread.run.cancelled

thread.run.expired

Ocorre quando uma corrida termina.

Nome Tipo Descrição Obrigatório Padrão
dados runObject Representa uma execução em threads. Sim
evento cadeia (de caracteres) Sim

Data: runObject

Evento Enum: RunStreamEventExpired

Valor Descrição
thread.run.expired

runStepStreamEvent

Este componente pode ser um dos seguintes:

thread.run.step.created

Ocorre quando é criado um passo de corrida.

Nome Tipo Descrição Obrigatório Padrão
dados runStepObject Representa um passo na execução de uma sequência.
Sim
evento cadeia (de caracteres) Sim

Data: runStepObject

Evento Enum: RunStepStreamEventCreated

Valor Descrição
thread.run.step.created

thread.run.step.in_progress

Ocorre quando um passo de corrida passa para um in_progress estado.

Nome Tipo Descrição Obrigatório Padrão
dados runStepObject Representa um passo na execução de uma sequência.
Sim
evento cadeia (de caracteres) Sim

Data: runStepObject

Evento Enum: RunStepStreamEventInProgress

Valor Descrição
thread.run.step.in_progress

thread.run.step.delta

Ocorre quando partes de um passo de corrida estão a ser transmitidas em streaming.

Nome Tipo Descrição Obrigatório Padrão
dados runStepDeltaObject Representa um delta de run step, ou seja, quaisquer campos alterados num run step durante o streaming.
Sim
evento cadeia (de caracteres) Sim

Data: runStepDeltaObject

Event Enum: RunStepStreamEventDelta

Valor Descrição
thread.run.step.delta

thread.run.step.completed

Ocorre quando um passo de corrida é concluído.

Nome Tipo Descrição Obrigatório Padrão
dados runStepObject Representa um passo na execução de uma sequência.
Sim
evento cadeia (de caracteres) Sim

Data: runStepObject

Evento Enum: RunStepStreamEventConcluído

Valor Descrição
thread.run.step.completed

thread.run.step.failed

Ocorre quando um passo de corrida falha.

Nome Tipo Descrição Obrigatório Padrão
dados runStepObject Representa um passo na execução de uma sequência.
Sim
evento cadeia (de caracteres) Sim

Data: runStepObject

Evento Enum: RunStepStreamEventFailed

Valor Descrição
thread.run.step.failed

thread.run.step.cancelled

Ocorre quando um passo de corrida é cancelado.

Nome Tipo Descrição Obrigatório Padrão
dados runStepObject Representa um passo na execução de uma sequência.
Sim
evento cadeia (de caracteres) Sim

Data: runStepObject

Evento Enum: RunStepStreamEventCancelled

Valor Descrição
thread.run.step.cancelled

thread.run.step.expired

Ocorre quando um passo de corrida expira.

Nome Tipo Descrição Obrigatório Padrão
dados runStepObject Representa um passo na execução de uma sequência.
Sim
evento cadeia (de caracteres) Sim

Data: runStepObject

Evento Enum: RunStepStreamEventExpired

Valor Descrição
thread.run.step.expired

MessageStreamEvent

Este componente pode ser um dos seguintes:

thread.message.created

Ocorre quando uma mensagem é criada.

Nome Tipo Descrição Obrigatório Padrão
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Data: messageObject

Event Enum: MessageStreamEventCreated

Valor Descrição
thread.message.created

thread.message.in_progress

Ocorre quando uma mensagem passa para um in_progress estado.

Nome Tipo Descrição Obrigatório Padrão
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Data: messageObject

Event Enum: MessageStreamEventInProgress

Valor Descrição
thread.message.in_progress

thread.message.delta

Ocorre quando partes de uma mensagem estão a ser transmitidas em streaming.

Nome Tipo Descrição Obrigatório Padrão
dados messageDeltaObject Representa um delta de mensagem, ou seja, quaisquer campos alterados numa mensagem durante o streaming.
Sim
evento cadeia (de caracteres) Sim

Data: messageDeltaObject

Event Enum: MessageStreamEventDelta

Valor Descrição
thread.message.delta

thread.message.completed

Ocorre quando uma mensagem é concluída.

Nome Tipo Descrição Obrigatório Padrão
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Data: messageObject

Event Enum: MessageStreamEventCompleted

Valor Descrição
thread.message.completed

thread.message.incomplete

Ocorre quando uma mensagem termina antes de ser concluída.

Nome Tipo Descrição Obrigatório Padrão
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Data: messageObject

Event Enum: MessageStreamEventIncomplete

Valor Descrição
thread.message.incomplete

Anotação

Este componente pode ser um dos seguintes:

Clique

Uma ação de clique.

Nome Tipo Descrição Obrigatório Padrão
botão enumeração Indica qual botão do rato foi pressionado durante o clique. Uma de left, right, wheel, back, ou forward.

Valores possíveis: left, right, wheel, back, forward
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de clique, esta propriedade é sempre definida para click.

Valores possíveis: click
Sim
x número inteiro A coordenada x onde ocorreu o clique.
Sim
y número inteiro A coordenada y onde ocorreu o clique.
Sim

CodeInterpreterFileFileOutput

A saída de uma ferramenta de interpretação de código chama que é um ficheiro.

Nome Tipo Descrição Obrigatório Padrão
ficheiros matriz Sim
tipo enumeração O tipo de saída do ficheiro do interpretador de código. Sempre files.

Valores possíveis: files
Sim

CodeInterpreterTextOutput

A saída de uma ferramenta interpretadora de código chamada que é texto.

Nome Tipo Descrição Obrigatório Padrão
registos cadeia (de caracteres) Os registos da ferramenta de interpretação de código chamam.
Sim
tipo enumeração O tipo de saída do texto do interpretador de código. Sempre logs.

Valores possíveis: logs
Sim

CodeInterpreterTool

Uma ferramenta que executa código.

Nome Tipo Descrição Obrigatório Padrão
file_ids matriz Os IDs dos ficheiros para executar o código.
Sim
tipo enumeração O tipo da ferramenta interpretadora de código. Sempre code_interpreter.

Valores possíveis: code_interpreter
Sim

CodeInterpreterToolCall

Uma chamada de ferramenta para executar código.

Nome Tipo Descrição Obrigatório Padrão
código cadeia (de caracteres) O código a executar.
Sim
id cadeia (de caracteres) O ID único da ferramenta de interpretação de código chama.
Sim
Resultados matriz Os resultados da chamada de ferramenta do interpretador de código.
Sim
estado enumeração O estado da ferramenta de interpretação de código chamada.

Valores possíveis: in_progress, interpreting, completed
Sim
tipo enumeração O tipo que a ferramenta interpretadora de código chama. Sempre code_interpreter_call.

Valores possíveis: code_interpreter_call
Sim

CodeInterpreterToolOutput

Este componente pode ser um dos seguintes:

FilterComparisonFilter

Um filtro usado para comparar uma chave de atributos especificada a um dado valor usando uma operação de comparação definida.

Nome Tipo Descrição Obrigatório Padrão
chave cadeia (de caracteres) A chave para comparar com o valor. Sim
tipo enumeração Especifica o operador de comparação: eq, ne, gt, gte, lt, lte.
- eq: igual a
- ne: não é igual
- gt: maior que
- gte: maior ou igual
- lt: menos que
- lte: menor ou igual

Valores possíveis: eq, ne, gt, gte, lt, lte
Sim
Valor string ou número ou booleano O valor a comparar com a chave de atributos; suporta tipos de string, número ou booleanos. Sim

CompoundFilter

Combine múltiplos filtros usando and ou or.

Nome Tipo Descrição Obrigatório Padrão
Filtros matriz Conjunto de filtros para combinar. Os itens podem ser ComparisonFilter ou CompoundFilter. Sim
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Sim

ComputerAction

Este componente pode ser um dos seguintes:

ImagemDeCaptura de Ecrã do Computador

Uma imagem de captura de ecrã de computador usada com a ferramenta de uso do computador.

Nome Tipo Descrição Obrigatório Padrão
file_id cadeia (de caracteres) O identificador de um ficheiro carregado que contém a captura de ecrã. Não
image_url cadeia (de caracteres) A URL da imagem de ecrã. Não
tipo enumeração Especifica o tipo de evento. Para uma captura de ecrã de computador, esta propriedade está sempre definida como computer_screenshot.

Valores possíveis: computer_screenshot
Sim

ComputerTool

Uma ferramenta que controla um computador virtual.

Nome Tipo Descrição Obrigatório Padrão
display_height Número A altura do ecrã do computador.
Sim
display_width Número A largura do ecrã do computador.
Sim
ambiente enumeração O tipo de ambiente informático a controlar.

Valores possíveis: mac, windows, ubuntu, browser
Sim
tipo enumeração O tipo de ferramenta de uso do computador. Sempre computer_use_preview.

Valores possíveis: computer-use-preview
Sim

ComputerToolCall

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Nome Tipo Descrição Obrigatório Padrão
ação ComputerAction Sim
call_id cadeia (de caracteres) Um identificador usado ao responder à chamada de ferramenta com saída.
Sim
id cadeia (de caracteres) O ID único da chamada do computador. Sim
pending_safety_checks matriz As verificações de segurança pendentes para a chamada no computador.
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Sim
tipo enumeração O tipo de chamada do computador. Sempre computer_call.
Valores possíveis: computer_call
Sim

ComputerToolCallOutput

A saída de uma chamada de ferramenta informática.

Nome Tipo Descrição Obrigatório Padrão
acknowledged_safety_checks matriz As verificações de segurança reportadas pela API que foram reconhecidas pelo programador.
Não
call_id cadeia (de caracteres) O ID da chamada de ferramenta informática que produziu a saída.
Sim
id cadeia (de caracteres) O ID da saída da chamada da ferramenta informática.
Não
Saída ImagemDeCaptura de Ecrã do Computador Uma imagem de captura de ecrã de computador usada com a ferramenta de uso do computador.
Sim
estado enumeração O estado da mensagem introduzida. Um de in_progress, completed, ou incomplete. Preenchido quando os itens de entrada são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de saída da chamada da ferramenta de computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Sim

ComputerToolCallOutputResource

Nome Tipo Descrição Obrigatório Padrão
acknowledged_safety_checks matriz As verificações de segurança reportadas pela API que foram reconhecidas pelo programador.
Não
call_id cadeia (de caracteres) O ID da chamada de ferramenta informática que produziu a saída.
Sim
id cadeia (de caracteres) O ID único da saída da ferramenta de chamada do computador.
Sim
Saída ImagemDeCaptura de Ecrã do Computador Uma imagem de captura de ecrã de computador usada com a ferramenta de uso do computador.
Sim
estado enumeração O estado da mensagem introduzida. Um de in_progress, completed, ou incomplete. Preenchido quando os itens de entrada são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de saída da chamada da ferramenta de computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Sim

ComputadorChamadaVerificaçãoSegurança

Uma verificação de segurança pendente para a chamada no computador.

Nome Tipo Descrição Obrigatório Padrão
código cadeia (de caracteres) O tipo de verificação de segurança pendente. Sim
id cadeia (de caracteres) A identificação da verificação de segurança pendente. Sim
mensagem cadeia (de caracteres) Detalhes sobre a verificação de segurança pendente. Sim

Conteúdo

Conteúdos de entrada e saída multimodais.

Este componente pode ser um dos seguintes:

Coordenadas

Um par de coordenadas x/y, por exemplo, { x: 100, y: 200 }.

Nome Tipo Descrição Obrigatório Padrão
x número inteiro A coordenada x.
Sim
y número inteiro A coordenada Y.
Sim

CreateModelResponseProperties

Nome Tipo Descrição Obrigatório Padrão
metadados Metadados Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard.

As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres.
Não
modelo cadeia (de caracteres) Modelo usado para gerar as respostas. Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a OpenAI a monitorizar e detetar abusos. .
Não

createResponse

Nome Tipo Descrição Obrigatório Padrão
inclui matriz {"$ref": "#/components/schemas/includable/description"} Não
dados introduzidos String ou array Entradas de texto, imagem ou ficheiro para o modelo, usadas para gerar uma resposta. Sim
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas.
Não
max_output_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.
Não
parallel_tool_calls Booleano Se permitir que o modelo execute chamadas de ferramenta em paralelo.
Não Verdade
previous_response_id cadeia (de caracteres) O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. Não
Raciocínio Fundamentação Opções de configuração para modelos de raciocínio. Não
armazenar Booleano Se deve armazenar a resposta gerada do modelo para recuperação posterior via API.
Não Verdade
fluxo Booleano Se definido como verdadeiro, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. Não Falso
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- entradas e saídas de texto
- Saídas Estruturadas
Não
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam.
Não
tool_choice OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar.
Não
Ferramentas matriz Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que pode fornecer ao modelo são:

- Ferramentas incorporadas
Não
Truncamento enumeração A estratégia de truncamento a usar para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o
Resposta para se ajustar à janela de contexto, colocando itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.

Valores possíveis: auto, disabled
Não

DoubleClick

Uma ação de duplo clique.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração Especifica o tipo de evento. Para uma ação de duplo clique, esta propriedade está sempre definida como double_click.

Valores possíveis: double_click
Sim
x número inteiro A coordenada x onde ocorreu o duplo clique.
Sim
y número inteiro A coordenada y onde ocorreu o duplo clique.
Sim

Arrasto

Uma ação de arrasto.

Nome Tipo Descrição Obrigatório Padrão
caminho matriz Um conjunto de coordenadas que representam o caminho da ação de arrasto. As coordenadas aparecerão como um array de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de arrasto, esta propriedade é sempre definida para drag.

Valores possíveis: drag
Sim

EasyInputMessage

Uma mensagem introduzida no modelo com um papel que indica a instrução seguindo a hierarquia. As instruções dadas com o developer papel ou system têm prioridade sobre as instruções dadas com o user papel. Presume-se que as mensagens com o assistant papel tenham sido geradas pelo modelo em interações anteriores.

Nome Tipo Descrição Obrigatório Padrão
conteúdo string ou InputMessageContentList Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta.
Pode também conter respostas anteriores de assistentes.
Sim
função enumeração O papel da entrada da mensagem. Um de user, assistant, system, ou developer.

Valores possíveis: user, assistant, system, developer
Sim
tipo enumeração O tipo de entrada da mensagem. Sempre message.

Valores possíveis: message
Não

FileCitation

Uma citação para um ficheiro.

Nome Tipo Descrição Obrigatório Padrão
file_id cadeia (de caracteres) O ID do ficheiro.
Sim
indexar número inteiro O índice do ficheiro na lista de ficheiros.
Sim
tipo enumeração O tipo da citação do ficheiro. Sempre file_citation.

Valores possíveis: file_citation
Sim

FilePath

Um caminho para um ficheiro.

Nome Tipo Descrição Obrigatório Padrão
file_id cadeia (de caracteres) O ID do ficheiro.
Sim
indexar número inteiro O índice do ficheiro na lista de ficheiros.
Sim
tipo enumeração O tipo do caminho do ficheiro. Sempre file_path.

Valores possíveis: file_path
Sim

FileSearchRanker

O ranker a usar para a pesquisa de ficheiros. Se não for especificado, usará o auto classificador.

Propriedade Valor
Descrição O ranker a usar para a pesquisa de ficheiros. Se não for especificado, usará o auto classificador.
Tipo cadeia (de caracteres)
Valores auto
default_2024_08_21

FicheiroFerramenta de Pesquisa

Uma ferramenta que procura conteúdos relevantes a partir de ficheiros carregados.

Nome Tipo Descrição Obrigatório Padrão
Filtros Filtro de Comparação ou Filtro Composto Um filtro a aplicar com base nos atributos do ficheiro. Não
max_num_results número inteiro O número máximo de resultados a devolver. Este número deve estar entre 1 e 50, inclusive.
Não
ranking_options objecto Opções de classificação para pesquisa. Não
└─ Ranker enumeração O ranker a usar para a pesquisa de ficheiros.
Valores possíveis: auto, default-2024-11-15
Não
└─ score_threshold Número O limiar de pontuação para a pesquisa de ficheiros, um número entre 0 e 1.
Números mais próximos de 1 tentarão devolver apenas os resultados mais relevantes, mas podem devolver menos resultados.
Não 0
tipo enumeração O tipo da ferramenta de pesquisa de ficheiros. Sempre file_search.

Valores possíveis: file_search
Sim
vector_store_ids matriz Os IDs do vetor armazenam-se para pesquisar.
Sim

FicheiroSearchToolCall

Os resultados de uma chamada de ferramenta de pesquisa de ficheiros.

Nome Tipo Descrição Obrigatório Padrão
id cadeia (de caracteres) O ID único da ferramenta de pesquisa de ficheiros chama.
Sim
Consultas matriz As consultas usadas para procurar ficheiros.
Sim
Resultados matriz Os resultados da ferramenta de pesquisa de ficheiros chamam.
Não
estado enumeração O estado da ferramenta de pesquisa de ficheiros chama. Um de in_progress, searching, incomplete ou failed,

Valores possíveis: in_progress, searching, completed, incomplete, failed
Sim
tipo enumeração O tipo de chamada da ferramenta de pesquisa de ficheiros. Sempre file_search_call.

Valores possíveis: file_search_call
Sim

FunctionTool

Define uma função no seu próprio código que o modelo pode escolher chamar.

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) Uma descrição da função. Usado pelo modelo para determinar se deve ou não chamar a função.
Não
Nome cadeia (de caracteres) O nome da função a chamar.
Sim
Parâmetros objecto Um objeto de esquema JSON que descreve os parâmetros da função.
Sim
estrito Booleano Se deve impor uma validação rigorosa dos parâmetros. Padrão true.
Sim
tipo enumeração O tipo da ferramenta funcional. Sempre function.

Valores possíveis: function
Sim

FunctionToolCall

Uma chamada de ferramenta para executar uma função.

Nome Tipo Descrição Obrigatório Padrão
Argumentos cadeia (de caracteres) Uma cadeia JSON dos argumentos para passar à função.
Sim
call_id cadeia (de caracteres) O ID único da chamada de ferramenta de função gerada pelo modelo.
Sim
id cadeia (de caracteres) O ID único da ferramenta de função chama.
Sim
Nome cadeia (de caracteres) O nome da função a executar.
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de chamada da ferramenta funcional. Sempre function_call.

Valores possíveis: function_call
Sim

FunctionToolCallOutput

A saída de uma chamada de ferramenta funcional.

Nome Tipo Descrição Obrigatório Padrão
call_id cadeia (de caracteres) O ID único da chamada de ferramenta de função gerada pelo modelo.
Sim
id cadeia (de caracteres) O ID único da saída da chamada da ferramenta funcional. Preenchido quando este item é devolvido via API.
Não
Saída cadeia (de caracteres) Uma string JSON da saída da chamada à ferramenta de função.
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo da ferramenta de função chama a saída. Sempre function_call_output.

Valores possíveis: function_call_output
Sim

FunctionToolCallOutputResource

Nome Tipo Descrição Obrigatório Padrão
call_id cadeia (de caracteres) O ID único da chamada de ferramenta de função gerada pelo modelo.
Sim
id cadeia (de caracteres) O ID único da saída da ferramenta de chamada de função.
Sim
Saída cadeia (de caracteres) Uma string JSON da saída da chamada à ferramenta de função.
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo da ferramenta de função chama a saída. Sempre function_call_output.

Valores possíveis: function_call_output
Sim

Incluído

Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são:

  • file_search_call.results: Inclua os resultados de pesquisa da chamada da ferramenta de pesquisa de ficheiros.
  • message.input_image.image_url: Incluir URLs de imagem da mensagem de entrada.
  • computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador.
Propriedade Valor
Descrição Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são:
- file_search_call.results: Inclua os resultados de pesquisa da chamada da ferramenta de pesquisa de ficheiros.
- message.input_image.image_url: Incluir URLs de imagem da mensagem de entrada.
- computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador.
Tipo cadeia (de caracteres)
Valores file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Uma entrada de áudio para o modelo.

Nome Tipo Descrição Obrigatório Padrão
dados cadeia (de caracteres) Dados de áudio codificados em base64.
Sim
Formato enumeração O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav.

Valores possíveis: mp3, wav
Sim
tipo enumeração O tipo do item de entrada. Sempre input_audio.

Valores possíveis: input_audio
Sim

Conteúdo de Entrada

Este componente pode ser um dos seguintes:

Ficheiro de Entrada

Uma entrada de ficheiro para o modelo.

Nome Tipo Descrição Obrigatório Padrão
file_data cadeia (de caracteres) O conteúdo do ficheiro a ser enviado para o modelo.
Não
file_id cadeia (de caracteres) O ID do ficheiro a ser enviado para o modelo.
Não
Nome do ficheiro cadeia (de caracteres) O nome do ficheiro a ser enviado ao modelo.
Não
tipo enumeração O tipo do item de entrada. Sempre input_file.

Valores possíveis: input_file
Sim

InputImage

Uma entrada de imagem para o modelo.

Nome Tipo Descrição Obrigatório Padrão
Detalhe enumeração O nível de detalhe da imagem a enviar ao modelo. Um de high, low, ou auto. Por defeito, é auto.

Valores possíveis: high, low, auto
Sim
file_id cadeia (de caracteres) O ID do ficheiro a ser enviado para o modelo.
Não
image_url cadeia (de caracteres) O URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou imagem codificada base64 numa URL de dados.
Não
tipo enumeração O tipo do item de entrada. Sempre input_image.

Valores possíveis: input_image
Sim

InputItem

Este componente pode ser um dos seguintes:

InputMessage

Uma mensagem introduzida no modelo com um papel que indica a instrução seguindo a hierarquia. As instruções dadas com o developer papel ou system têm prioridade sobre as instruções dadas com o user papel.

Nome Tipo Descrição Obrigatório Padrão
conteúdo InputMessageContentList Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdos diferentes
tipos.
Sim
função enumeração O papel da entrada da mensagem. Um de user, system, ou developer.

Valores possíveis: user, system, developer
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de entrada da mensagem. Sempre definido para message.

Valores possíveis: message
Não

InputMessageContentList

Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes tipos de conteúdo.

Nenhuma propriedade definida para este componente.

InputMessageResource

Nome Tipo Descrição Obrigatório Padrão
conteúdo InputMessageContentList Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdos diferentes
tipos.
Sim
id cadeia (de caracteres) O ID único da entrada da mensagem.
Sim
função enumeração O papel da entrada da mensagem. Um de user, system, ou developer.

Valores possíveis: user, system, developer
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de entrada da mensagem. Sempre definido para message.

Valores possíveis: message
Não

InputText

Uma entrada de texto para o modelo.

Nome Tipo Descrição Obrigatório Padrão
enviar SMS cadeia (de caracteres) O texto introduzido no modelo.
Sim
tipo enumeração O tipo do item de entrada. Sempre input_text.

Valores possíveis: input_text
Sim

Item

Item de conteúdo usado para gerar uma resposta.

Este componente pode ser um dos seguintes:

ItemReference

Um identificador interno para um item referenciar.

Nome Tipo Descrição Obrigatório Padrão
id cadeia (de caracteres) O ID do item para referência.
Sim
tipo enumeração O tipo de artigo a consultar. Sempre item_reference.

Valores possíveis: item_reference
Sim

ItemResource

Item de conteúdo usado para gerar uma resposta.

Este componente pode ser um dos seguintes:

KeyPress

Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.

Nome Tipo Descrição Obrigatório Padrão
Chaves matriz A combinação de teclas que o modelo pede para ser pressionada. Trata-se de um array de cadeias, cada uma representando uma tecla.
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de pressionar a tecla, esta propriedade é sempre definida para keypress.

Valores possíveis: keypress
Sim

Metadados

Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard.

As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres.

Nenhuma propriedade definida para este componente.

ModeloRespostaPropriedades

Nome Tipo Descrição Obrigatório Padrão
metadados Metadados Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard.

As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres.
Não
modelo cadeia (de caracteres) Modelo usado para gerar as respostas. Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a OpenAI a monitorizar e detetar abusos. .
Não

Sai da frente

Uma ação de movimento de rato.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração Especifica o tipo de evento. Para uma ação de movimento, esta propriedade é sempre definida como move.

Valores possíveis: move
Sim
x número inteiro A coordenada x para onde se deve mover.
Sim
y número inteiro A coordenada Y para onde se deve mover.
Sim

OutputAudio

Uma saída de áudio do modelo.

Nome Tipo Descrição Obrigatório Padrão
dados cadeia (de caracteres) Dados de áudio codificados em Base64 do modelo.
Sim
transcrição cadeia (de caracteres) A transcrição dos dados áudio do modelo.
Sim
tipo enumeração O tipo de áudio de saída. Sempre output_audio.

Valores possíveis: output_audio
Sim

Conteúdo de Saída

Este componente pode ser um dos seguintes:

OutputItem

Nome Tipo Descrição Obrigatório Padrão
ação ComputerAction Sim
Argumentos cadeia (de caracteres) Uma cadeia JSON dos argumentos para passar à função.
Sim
call_id cadeia (de caracteres) Um identificador usado ao responder à chamada de ferramenta com saída.
Sim
conteúdo matriz Raciocínio do conteúdo do texto.
Sim
id cadeia (de caracteres) O identificador único do conteúdo de raciocínio.
Sim
Nome cadeia (de caracteres) O nome da função a executar.
Sim
pending_safety_checks matriz As verificações de segurança pendentes para a chamada no computador.
Sim
Consultas matriz As consultas usadas para procurar ficheiros.
Sim
Resultados matriz Os resultados da ferramenta de pesquisa de ficheiros chamam.
Não
função enumeração O papel da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Sim
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Sim

OutputMessage

Uma mensagem de saída do modelo.

Nome Tipo Descrição Obrigatório Padrão
conteúdo matriz O conteúdo da mensagem de saída.
Sim
id cadeia (de caracteres) O ID único da mensagem de saída.
Sim
função enumeração O papel da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Sim
estado enumeração O estado da mensagem introduzida. Um de in_progress, completed, ou incomplete. Preenchido quando os itens de entrada são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Sim
tipo enumeração O tipo da mensagem de saída. Sempre message.

Valores possíveis: message
Sim

OutputText

Uma saída de texto do modelo.

Nome Tipo Descrição Obrigatório Padrão
Anotações matriz As anotações da saída do texto.
Sim
enviar SMS cadeia (de caracteres) A saída de texto do modelo.
Sim
tipo enumeração O tipo do texto de saída. Sempre output_text.

Valores possíveis: output_text
Sim

RealtimeSessionCreateRequest

Configuração de objetos de sessão em tempo real.

Nome Tipo Descrição Obrigatório Padrão
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
input_audio_noise_reduction objecto Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada.
Não
└─ Tipo enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.

Valores possíveis: near_field, far_field
Não
input_audio_transcription objecto Configuração para transcrição de áudio de entrada, por defeito desligado e pode ser definido para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição corre de forma assíncrona através do endpoint de Transcrições e deve ser tratada como orientação do conteúdo áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição.
Não
└─ Linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
Não
└─ modelo cadeia (de caracteres) O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia".
Não
Instruções cadeia (de caracteres) As instruções padrão do sistema (ou seja, a mensagem do sistema) antecediam as chamadas de modelo. Este campo permite ao cliente orientar o modelo nas respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato das respostas (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento áudio (por exemplo, "fala depressa", "injeta emoção na tua voz", "ri frequentemente"). As instruções não são garantidas de serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.

Note que o servidor define instruções padrão que serão usadas se este campo não estiver definido e que são visíveis no session.created evento no início da sessão.
Não
max_response_output_tokens inteiro ou cadeia Número máximo de tokens de saída para uma resposta de um único assistente, incluindo chamadas de ferramenta. Fornecer um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um dado modelo. Por defeito, é inf.
Não
Modalidades O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"].
Não
modelo cadeia (de caracteres) O nome da implantação usada para esta sessão.
Não
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
Temperatura Número Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos áudio, recomenda-se vivamente uma temperatura de 0,8 para melhor desempenho.
Não 0.8
tool_choice cadeia (de caracteres) Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
Não Auto
Ferramentas matriz Ferramentas (funções) disponíveis para o modelo. Não
turn_detection objecto Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador.
O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada.
Não
└─ create_response Booleano Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para semantic_vad o modo. A vontade do modelo de responder. low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ interrupt_response Booleano Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD.
Não Verdade
└─ prefix_padding_ms número inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms.
Não
└─ silence_duration_ms número inteiro Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador.
Não
└─ Limiar Número Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos.
Não
└─ Tipo enumeração Tipo de deteção de curva.

Valores possíveis: server_vad, semantic_vad
Não
Voz VoiceIdsShared Não

RealtimeSessionCriarResposta

Uma nova configuração de sessão em tempo real, com uma chave efémera. O TTL padrão para as chaves é de um minuto.

Nome Tipo Descrição Obrigatório Padrão
client_secret objecto Chave efémera devolvida pela API. Sim
└─ expires_at número inteiro Carimbo temporal para quando o token expira. Atualmente, todos os tokens expiram após um minuto.
Não
└─ Valor cadeia (de caracteres) Chave efémera utilizável em ambientes de cliente para autenticar ligações à API de Tempo Real. Use isto em ambientes do lado do cliente em vez de um token API padrão, que só deve ser usado do lado do servidor.
Não
input_audio_format cadeia (de caracteres) O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Não
input_audio_transcription objecto Configuração para transcrição de áudio de entrada, por defeito desligado e pode ser definido para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição corre assíncrona através do Whisper e deve ser tratada como orientação aproximada, em vez da representação compreendida pelo modelo.
Não
└─ modelo cadeia (de caracteres) O modelo a usar para transcrição whisper-1 é o único modelo atualmente suportado.
Não
Instruções cadeia (de caracteres) As instruções padrão do sistema (ou seja, a mensagem do sistema) antecediam as chamadas de modelo. Este campo permite ao cliente orientar o modelo nas respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato das respostas (por exemplo, "seja extremamente sucinto", "aja de forma amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento áudio (por exemplo, "fala depressa", "injeta emoção na tua voz", "ri frequentemente"). As instruções não são garantidas de serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.
Note que o servidor define instruções padrão que serão usadas se este campo não estiver definido e que são visíveis no session.created evento no início da sessão.
Não
max_response_output_tokens inteiro ou cadeia Número máximo de tokens de saída para uma resposta de um único assistente, incluindo chamadas de ferramenta. Fornecer um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um dado modelo. Por defeito, é inf.
Não
Modalidades O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"].
Não
output_audio_format cadeia (de caracteres) O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.
Não
Temperatura Número Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Por defeito é 0,8.
Não
tool_choice cadeia (de caracteres) Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
Não
Ferramentas matriz Ferramentas (funções) disponíveis para o modelo. Não
turn_detection objecto Configuração para deteção de curvas. Pode ser definido para null desligar. O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador.
Não
└─ prefix_padding_ms número inteiro Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms.
Não
└─ silence_duration_ms número inteiro Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador.
Não
└─ Limiar Número Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos.
Não
└─ Tipo cadeia (de caracteres) Só o tipo de deteção de turno server_vad é atualmente suportado.
Não
Voz VoiceIdsShared Não

Tempo realTranscriçãoSessãoCriarPedido

Configuração em tempo real de objetos de sessão de transcrição.

Nome Tipo Descrição Obrigatório Padrão
inclui matriz O conjunto de itens a incluir na transcrição. Os itens atualmente disponíveis são:
- item.input_audio_transcription.logprobs
Não
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
input_audio_noise_reduction objecto Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada.
Não
└─ Tipo enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.

Valores possíveis: near_field, far_field
Não
input_audio_transcription objecto Configuração para transcrição áudio de entrada. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição.
Não
└─ Linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
Não
└─ modelo enumeração O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia".
Não
Modalidades O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"].
Não
turn_detection objecto Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador.
O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada.
Não
└─ create_response Booleano Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para semantic_vad o modo. A vontade do modelo de responder. low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ interrupt_response Booleano Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ prefix_padding_ms número inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms.
Não
└─ silence_duration_ms número inteiro Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador.
Não
└─ Limiar Número Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos.
Não
└─ Tipo enumeração Tipo de deteção de curva.

Valores possíveis: server_vad, semantic_vad
Não

Tempo realTranscriçãoSessãoCriarResposta

Uma nova configuração de sessão de transcrição em tempo real.

Quando uma sessão é criada no servidor através da API REST, o objeto de sessão contém também uma chave efémera. O TTL padrão para as chaves é de um minuto. Esta propriedade não está presente quando uma sessão é atualizada através da API WebSocket.

Nome Tipo Descrição Obrigatório Padrão
client_secret objecto Chave efémera devolvida pela API. Só está presente quando a sessão é criada no servidor via API REST.
Sim
└─ expires_at número inteiro Carimbo temporal para quando o token expira. Atualmente, todos os tokens expiram após um minuto.
Não
└─ Valor cadeia (de caracteres) Chave efémera utilizável em ambientes de cliente para autenticar ligações à API de Tempo Real. Use isto em ambientes do lado do cliente em vez de um token API padrão, que só deve ser usado do lado do servidor.
Não
input_audio_format cadeia (de caracteres) O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Não
input_audio_transcription objecto Configuração do modelo de transcrição.
Não
└─ Linguagem cadeia (de caracteres) A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
Não
└─ modelo enumeração O modelo a usar para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio.
Não
Modalidades O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"].
Não
turn_detection objecto Configuração para deteção de curvas. Pode ser definido para null desligar. O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador.
Não
└─ prefix_padding_ms número inteiro Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms.
Não
└─ silence_duration_ms número inteiro Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador.
Não
└─ Limiar Número Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos.
Não
└─ Tipo cadeia (de caracteres) Só o tipo de deteção de turno server_vad é atualmente suportado.
Não

Fundamentação

Opções de configuração para modelos de raciocínio.

Nome Tipo Descrição Obrigatório Padrão
esforço ReasoningEffort Limita o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.
Sim meio
resumo enumeração Um resumo do raciocínio realizado pelo modelo. Isto pode ser útil para depurar e compreender o processo de raciocínio do modelo.
Um de concise ou detailed.

Valores possíveis: concise, detailed
Não

FundamentoItem

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.

Nome Tipo Descrição Obrigatório Padrão
conteúdo matriz Raciocínio do conteúdo do texto.
Sim
id cadeia (de caracteres) O identificador único do conteúdo de raciocínio.
Sim
estado enumeração O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Sim

Recusa

Uma recusa da modelo.

Nome Tipo Descrição Obrigatório Padrão
Recusa cadeia (de caracteres) A explicação da recusa do modelo.
Sim
tipo enumeração O tipo de recusa. Sempre refusal.

Valores possíveis: refusal
Sim

Resposta

Nome Tipo Descrição Obrigatório Padrão
created_at Número Carimbo temporal do Unix (em segundos) de quando esta resposta foi criada.
Sim
erro ResponseError Um objeto de erro devolvido quando o modelo falha em gerar uma Resposta.
Sim
id cadeia (de caracteres) Identificador único para esta Resposta.
Sim
incomplete_details objecto Detalhes sobre porque é que a resposta está incompleta.
Sim
└─ Razão enumeração A razão pela qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
Não
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas.
Sim
max_output_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
Não
metadados Metadados Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard.

As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres.
Sim
modelo cadeia (de caracteres) Modelo usado para gerar as respostas. Sim
objecto enumeração O tipo de objeto deste recurso - sempre definido para response.

Valores possíveis: response
Sim
Saída matriz Uma variedade de conteúdos gerados pelo modelo.

- O comprimento e a ordem dos itens no output array dependem da resposta do modelo.
- Em vez de aceder ao primeiro item do output array e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, pode considerar usar a output_text propriedade onde suportada nos SDKs.
Sim
output_text cadeia (de caracteres) Propriedade de conveniência apenas SDK que contém o texto agregado de saída de todos os output_text itens do output array, se houver algum.
Suportado nos SDKs de Python e JavaScript.
Não
parallel_tool_calls Booleano Se permitir que o modelo execute chamadas de ferramenta em paralelo.
Sim Verdade
previous_response_id cadeia (de caracteres) O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. Não
Raciocínio Fundamentação Opções de configuração para modelos de raciocínio.
Não
estado enumeração O estado da geração de resposta. Um de completed, failed, in_progress, ou incomplete.

Valores possíveis: completed, failed, in_progress, incomplete
Não
Temperatura Número Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística.
Geralmente recomendamos alterar isto ou top_p , mas não ambos.
Sim 1
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- entradas e saídas de texto
- Saídas Estruturadas
Não
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam.
Não
tool_choice OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar.
Sim
Ferramentas matriz Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que pode fornecer ao modelo são:

- Ferramentas incorporadas
Sim
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados.

Geralmente recomendamos alterar isto ou temperature , mas não ambos.
Sim 1
Truncamento enumeração A estratégia de truncamento a usar para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, eliminando itens de entrada a meio da conversa.
- disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.

Valores possíveis: auto, disabled
Não
utilização ResponseUsage Representa detalhes de utilização dos tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados.
Não
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a OpenAI a monitorizar e detetar abusos. .
Não

ResponseAudioDeltaEvent

Emitido quando há uma resposta parcial de áudio.

Nome Tipo Descrição Obrigatório Padrão
Delta cadeia (de caracteres) Um bloco de bytes de resposta codificada em Base64.
Sim
tipo enumeração O tipo de evento. Sempre response.audio.delta.

Valores possíveis: response.audio.delta
Sim

RespostaÁudioFeitoEvento

Emitido quando a resposta áudio está completa.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração O tipo de evento. Sempre response.audio.done.

Valores possíveis: response.audio.done
Sim

RespostaTranscriçãoÁudioDeltaEvento

Emitido quando existe uma transcrição parcial do áudio.

Nome Tipo Descrição Obrigatório Padrão
Delta cadeia (de caracteres) A transcrição parcial da resposta áudio.
Sim
tipo enumeração O tipo de evento. Sempre response.audio.transcript.delta.

Valores possíveis: response.audio.transcript.delta
Sim

RespostaÁudioTranscriçãoFeitoEvento

Emitido quando a transcrição áudio completa está concluída.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração O tipo de evento. Sempre response.audio.transcript.done.

Valores possíveis: response.audio.transcript.done
Sim

ResponseCodeInterpreterCallCodeDeltaEvent

Emitido quando um excerto parcial de código é adicionado pelo interpretador de código.

Nome Tipo Descrição Obrigatório Padrão
Delta cadeia (de caracteres) O excerto parcial de código adicionado pelo interpretador de código.
Sim
output_index número inteiro O índice do item de saída que o interpretador de código chama está em progresso.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.delta.

Valores possíveis: response.code_interpreter_call.code.delta
Sim

ResponseCodeInterpreterCallCodeDoneEvent

Emitido quando a saída do excerto de código é finalizada pelo interpretador de código.

Nome Tipo Descrição Obrigatório Padrão
código cadeia (de caracteres) O excerto final de código produzido pelo interpretador de código.
Sim
output_index número inteiro O índice do item de saída que o interpretador de código chama está em progresso.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.done.

Valores possíveis: response.code_interpreter_call.code.done
Sim

ResponseCodeInterpreterCallCompletedEvent

Emitido quando a chamada ao interpretador de código é concluída.

Nome Tipo Descrição Obrigatório Padrão
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
output_index número inteiro O índice do item de saída que o interpretador de código chama está em progresso.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.completed.

Valores possíveis: response.code_interpreter_call.completed
Sim

ResponseCodeInterpreterCallInProgressEvent

Emitido quando uma chamada de interpretador de código está em curso.

Nome Tipo Descrição Obrigatório Padrão
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
output_index número inteiro O índice do item de saída que o interpretador de código chama está em progresso.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.in_progress.

Valores possíveis: response.code_interpreter_call.in_progress
Sim

ResponseCodeInterpreterCallInterpretingEvent

Emitido quando o interpretador de código está a interpretar ativamente o fragmento de código.

Nome Tipo Descrição Obrigatório Padrão
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
output_index número inteiro O índice do item de saída que o interpretador de código chama está em progresso.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.interpreting.

Valores possíveis: response.code_interpreter_call.interpreting
Sim

EventoRespostaConcluídaT

Emitido quando a resposta do modelo está concluída.

Nome Tipo Descrição Obrigatório Padrão
Resposta Resposta Sim
tipo enumeração O tipo de evento. Sempre response.completed.

Valores possíveis: response.completed
Sim

RespostaConteúdoParteAdicionadaEvento

Emitido quando uma nova parte de conteúdo é adicionada.

Nome Tipo Descrição Obrigatório Padrão
content_index número inteiro O índice da parte de conteúdo que foi adicionada.
Sim
item_id cadeia (de caracteres) O ID do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
output_index número inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
parte Conteúdo de Saída Sim
tipo enumeração O tipo de evento. Sempre response.content_part.added.

Valores possíveis: response.content_part.added
Sim

RespostaConteúdoParteFeitoEvento

Emitido quando uma parte de conteúdo é concluída.

Nome Tipo Descrição Obrigatório Padrão
content_index número inteiro O índice da parte do conteúdo que é feita.
Sim
item_id cadeia (de caracteres) O ID do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
output_index número inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
parte Conteúdo de Saída Sim
tipo enumeração O tipo de evento. Sempre response.content_part.done.

Valores possíveis: response.content_part.done
Sim

RespostaCriadoEvento

Um evento que é emitido quando uma resposta é criada.

Nome Tipo Descrição Obrigatório Padrão
Resposta Resposta Sim
tipo enumeração O tipo de evento. Sempre response.created.

Valores possíveis: response.created
Sim

ResponseError

Um objeto de erro devolvido quando o modelo falha em gerar uma Resposta.

Nome Tipo Descrição Obrigatório Padrão
código ResponseErrorCode O código de erro da resposta.
Sim
mensagem cadeia (de caracteres) Uma descrição legível para humanos do erro.
Sim

ResponseErrorCode

O código de erro da resposta.

Propriedade Valor
Descrição O código de erro da resposta.
Tipo cadeia (de caracteres)
Valores server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

RespostaErroEventoResposta

Emitido quando ocorre um erro.

Nome Tipo Descrição Obrigatório Padrão
código cadeia (de caracteres) O código de erro.
Sim
mensagem cadeia (de caracteres) A mensagem de erro.
Sim
Param cadeia (de caracteres) O parâmetro de erro.
Sim
tipo enumeração O tipo de evento. Sempre error.

Valores possíveis: error
Sim

RespostaFalhadaEvento

Um evento que é emitido quando uma resposta falha.

Nome Tipo Descrição Obrigatório Padrão
Resposta Resposta Sim
tipo enumeração O tipo de evento. Sempre response.failed.

Valores possíveis: response.failed
Sim

RespostaFicheiroPesquisaChamadaEventoConcluído

Emitido quando uma chamada de pesquisa de ficheiro é concluída (resultados encontrados).

Nome Tipo Descrição Obrigatório Padrão
item_id cadeia (de caracteres) O ID do item de saída que a pesquisa de ficheiro é iniciado.
Sim
output_index número inteiro O índice do item de saída que a pesquisa de ficheiro é iniciado.
Sim
tipo enumeração O tipo de evento. Sempre response.file_search_call.completed.

Valores possíveis: response.file_search_call.completed
Sim

RespostaFicheiroPesquisaChamadaEmProgressoEvento

Emitido quando uma chamada de pesquisa de ficheiro é iniciada.

Nome Tipo Descrição Obrigatório Padrão
item_id cadeia (de caracteres) O ID do item de saída que a pesquisa de ficheiro é iniciado.
Sim
output_index número inteiro O índice do item de saída que a pesquisa de ficheiro é iniciado.
Sim
tipo enumeração O tipo de evento. Sempre response.file_search_call.in_progress.

Valores possíveis: response.file_search_call.in_progress
Sim

RespostaFicheiroPesquisaChamadaEventoDePesquisa

Emitido quando uma pesquisa de ficheiros está atualmente a ser pesquisada.

Nome Tipo Descrição Obrigatório Padrão
item_id cadeia (de caracteres) O ID do item de saída que a pesquisa de ficheiro é iniciado.
Sim
output_index número inteiro O índice do item de saída que a pesquisa de ficheiro chama está a pesquisar.
Sim
tipo enumeração O tipo de evento. Sempre response.file_search_call.searching.

Valores possíveis: response.file_search_call.searching
Sim

RespostaFunçãoChamadaArgumentosDeltaEvento

Emitido quando existe um delta parcial de argumentos de chamada de função.

Nome Tipo Descrição Obrigatório Padrão
Delta cadeia (de caracteres) Os argumentos de chamada de função delta que são adicionados.
Sim
item_id cadeia (de caracteres) O ID do item de saída ao qual o delta dos argumentos da chamada de função é adicionado.
Sim
output_index número inteiro O índice do item de saída ao qual o delta dos argumentos da chamada de função é somado.
Sim
tipo enumeração O tipo de evento. Sempre response.function_call_arguments.delta.

Valores possíveis: response.function_call_arguments.delta
Sim

RespostaFunçãoChamarArgumentosFeitoEventoFeito

Emitido quando os argumentos de chamada de função são finalizados.

Nome Tipo Descrição Obrigatório Padrão
Argumentos cadeia (de caracteres) Os argumentos da chamada de funções. Sim
item_id cadeia (de caracteres) A identificação do item. Sim
output_index número inteiro O índice do item de saída. Sim
tipo enumeração
Valores possíveis: response.function_call_arguments.done
Sim

ResponseInProgressEvent

Emitido quando a resposta está em andamento.

Nome Tipo Descrição Obrigatório Padrão
Resposta Resposta Sim
tipo enumeração O tipo de evento. Sempre response.in_progress.

Valores possíveis: response.in_progress
Sim

RespostaIncompletoEvento

Um evento que é emitido quando uma resposta termina como incompleta.

Nome Tipo Descrição Obrigatório Padrão
Resposta Resposta Sim
tipo enumeração O tipo de evento. Sempre response.incomplete.

Valores possíveis: response.incomplete
Sim

responseItemList

Uma lista de itens de Resposta.

Nome Tipo Descrição Obrigatório Padrão
dados matriz Uma lista dos itens usados para gerar esta resposta. Sim
first_id cadeia (de caracteres) O ID do primeiro item da lista. Sim
has_more Booleano Se há mais artigos disponíveis. Sim
last_id cadeia (de caracteres) O ID do último item da lista. Sim
objecto enumeração O tipo de objeto devolvido deve ser list.
Valores possíveis: list
Sim

Modalidades de Resposta

Tipos de saída que gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:

["text", "audio"]

Nenhuma propriedade definida para este componente.

RespostaModalidadesApenas Texto

Tipos de saída que gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

Esta API irá em breve suportar outras modalidades de saída, incluindo áudio e imagens.

Nenhuma propriedade definida para este componente.

RespostaSaídaItemAdicionadoEvento

Emitido quando um novo item de saída é adicionado.

Nome Tipo Descrição Obrigatório Padrão
item OutputItem Sim
output_index número inteiro O índice do item de saída que foi adicionado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_item.added.

Valores possíveis: response.output_item.added
Sim

ResponseOutputItemDoneEvent

Emitido quando um item de saída é marcado como concluído.

Nome Tipo Descrição Obrigatório Padrão
item OutputItem Sim
output_index número inteiro O índice do item de saída que foi marcado como feito.
Sim
tipo enumeração O tipo de evento. Sempre response.output_item.done.

Valores possíveis: response.output_item.done
Sim

Propriedades de Resposta

Nome Tipo Descrição Obrigatório Padrão
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas.
Não
max_output_tokens número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
Não
previous_response_id cadeia (de caracteres) O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. Não
Raciocínio Fundamentação Opções de configuração para modelos de raciocínio.
Não
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- entradas e saídas de texto
- Saídas Estruturadas
Não
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam.
Não
tool_choice OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar.
Não
Ferramentas matriz Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que pode fornecer ao modelo são:

- Ferramentas incorporadas
Não
Truncamento enumeração A estratégia de truncamento a usar para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, eliminando itens de entrada a meio da conversa.
- disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.

Valores possíveis: auto, disabled
Não

RespostaRecusaDeltaEvento

Emitido quando há um texto de recusa parcial.

Nome Tipo Descrição Obrigatório Padrão
content_index número inteiro O índice da parte de conteúdo a que o texto de recusa é adicionado.
Sim
Delta cadeia (de caracteres) O texto de recusa que é adicionado.
Sim
item_id cadeia (de caracteres) O ID do item de saída ao qual o texto de recusa é adicionado.
Sim
output_index número inteiro O índice do item de saída ao qual o texto de recusa é adicionado.
Sim
tipo enumeração O tipo de evento. Sempre response.refusal.delta.

Valores possíveis: response.refusal.delta
Sim

RespostaRecusaEventoFeito

Emitido quando o texto de recusa é finalizado.

Nome Tipo Descrição Obrigatório Padrão
content_index número inteiro O índice do conteúdo da parte onde o texto da recusa está finalizado.
Sim
item_id cadeia (de caracteres) O ID do item de saída onde o texto de recusa está finalizado.
Sim
output_index número inteiro O índice do item de saída onde o texto de recusa está finalizado.
Sim
Recusa cadeia (de caracteres) O texto de recusa está finalizado.
Sim
tipo enumeração O tipo de evento. Sempre response.refusal.done.

Valores possíveis: response.refusal.done
Sim

responseStreamEvent

Nome Tipo Descrição Obrigatório Padrão
anotação Anotação Sim
annotation_index número inteiro O índice da anotação que foi adicionada.
Sim
Argumentos cadeia (de caracteres) Os argumentos da chamada de funções. Sim
código cadeia (de caracteres) O código de erro.
Sim
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
content_index número inteiro O índice do conteúdo, parte onde o conteúdo do texto está finalizado.
Sim
Delta cadeia (de caracteres) A diferença de texto que foi adicionada.
Sim
item OutputItem O item de saída que foi marcado como concluído.
Sim
item_id cadeia (de caracteres) O ID do item de saída onde o conteúdo do texto está finalizado.
Sim
mensagem cadeia (de caracteres) A mensagem de erro.
Sim
output_index número inteiro O índice do item de saída onde o conteúdo do texto está finalizado.
Sim
Param cadeia (de caracteres) O parâmetro de erro.
Sim
parte Conteúdo de Saída A parte do conteúdo que está feita.
Sim
Recusa cadeia (de caracteres) O texto de recusa está finalizado.
Sim
Resposta Resposta A resposta que estava incompleta.
Sim
enviar SMS cadeia (de caracteres) O conteúdo do texto que é finalizado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Sim

ResponseTextAnnotationDeltaEvent

Emitido quando uma anotação de texto é adicionada.

Nome Tipo Descrição Obrigatório Padrão
anotação Anotação Sim
annotation_index número inteiro O índice da anotação que foi adicionada.
Sim
content_index número inteiro O índice da parte de conteúdo a que a anotação de texto foi adicionada.
Sim
item_id cadeia (de caracteres) O ID do item de saída ao qual a anotação de texto foi adicionada.
Sim
output_index número inteiro O índice do item de saída ao qual a anotação de texto foi adicionada.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.annotation.added.

Valores possíveis: response.output_text.annotation.added
Sim

TextoDeltaEvento

Emitido quando há um delta adicional de texto.

Nome Tipo Descrição Obrigatório Padrão
content_index número inteiro O índice da parte de conteúdo a que foi adicionado o delta de texto.
Sim
Delta cadeia (de caracteres) A diferença de texto que foi adicionada.
Sim
item_id cadeia (de caracteres) O ID do item de saída ao qual a delta de texto foi adicionada.
Sim
output_index número inteiro O índice do item de saída ao qual a delta de texto foi adicionada.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.delta.

Valores possíveis: response.output_text.delta
Sim

RespostaTextoFeitoEvento

Emitido quando o conteúdo de texto é finalizado.

Nome Tipo Descrição Obrigatório Padrão
content_index número inteiro O índice do conteúdo, parte onde o conteúdo do texto está finalizado.
Sim
item_id cadeia (de caracteres) O ID do item de saída onde o conteúdo do texto está finalizado.
Sim
output_index número inteiro O índice do item de saída onde o conteúdo do texto está finalizado.
Sim
enviar SMS cadeia (de caracteres) O conteúdo do texto que é finalizado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Sim

ResponseUsage

Representa detalhes de utilização dos tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados.

Nome Tipo Descrição Obrigatório Padrão
input_tokens número inteiro O número de tokens de entrada. Sim
output_tokens número inteiro O número de tokens de saída. Sim
output_tokens_details objecto Uma análise detalhada dos tokens de saída. Sim
└─ reasoning_tokens número inteiro O número de fichas de raciocínio. Não
total_tokens número inteiro O número total de fichas usadas. Sim

Captura de ecrã

Uma ação de captura de ecrã.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração Especifica o tipo de evento. Para uma ação de captura de ecrã, esta propriedade está sempre definida como screenshot.

Valores possíveis: screenshot
Sim

Pergaminho

Uma ação de pergaminho.

Nome Tipo Descrição Obrigatório Padrão
scroll_x número inteiro A distância do scroll horizontal.
Sim
scroll_y número inteiro A distância do scroll vertical.
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de scroll, esta propriedade é sempre definida como scroll.

Valores possíveis: scroll
Sim
x número inteiro A coordenada x onde ocorreu o scroll.
Sim
y número inteiro A coordenada y onde o scroll ocorreu.
Sim

StopConfiguration

Até 4 sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens.

Este componente pode ser um dos seguintes:

TextResponseFormatConfiguration

Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } permite Saídas Estruturadas, que garantem que o modelo corresponde ao seu esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam.

Este componente pode ser um dos seguintes:

TextResponseFormatJsonSchema

Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.

Nome Tipo Descrição Obrigatório Padrão
Descrição cadeia (de caracteres) Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder nesse formato.
Não
Nome cadeia (de caracteres) O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64.
Não
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. Sim
estrito Booleano Se deve ativar a adesão estrita ao esquema ao gerar a saída.
Se definido como verdadeiro, o modelo seguirá sempre o esquema exato definido no schema campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true.
Não Falso
tipo enumeração O tipo de formato de resposta que está a ser definido. Sempre json_schema.
Valores possíveis: json_schema
Sim

Ferramenta

Este componente pode ser um dos seguintes:

FunçãoDeEscolhaFerramenta

Use esta opção para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Obrigatório Padrão
Nome cadeia (de caracteres) O nome da função a chamar. Sim
tipo enumeração Para chamadas de funções, o tipo é sempre function.
Valores possíveis: function
Sim

OpçõesDeEscolhaFerramenta

Controla qual (se houver) ferramenta chamada pelo modelo.

none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo tem de chamar uma ou mais ferramentas.

Propriedade Valor
Descrição Controla qual (se houver) ferramenta chamada pelo modelo.

none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo tem de chamar uma ou mais ferramentas.
Tipo cadeia (de caracteres)
Valores none
auto
required

TiposEscolhaFerramenta

Indica que o modelo deve usar uma ferramenta incorporada para gerar uma resposta.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração O tipo de ferramenta alojada que o modelo deve usar. Os valores permitidos são:
- file_search
- computer_use_preview

Valores possíveis: file_search, computer_use_preview
Sim

Tipo

Uma ação para escrever texto.

Nome Tipo Descrição Obrigatório Padrão
enviar SMS cadeia (de caracteres) O texto para escrever.
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de tipo, esta propriedade é sempre definida como type.

Valores possíveis: type
Sim

UpdateVectorStoreFileAttributesRequest

Nome Tipo Descrição Obrigatório Padrão
Atributos VectorStoreFileAttributes Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números.
Sim

UrlCitation

Uma citação para um recurso web usado para gerar uma resposta de modelo.

Nome Tipo Descrição Obrigatório Padrão
end_index número inteiro O índice do último carácter da citação do URL na mensagem.
Sim
start_index número inteiro O índice do primeiro carácter da citação URL na mensagem.
Sim
Título cadeia (de caracteres) O título do recurso web.
Sim
tipo enumeração O tipo da citação do URL. Sempre url_citation.

Valores possíveis: url_citation
Sim
URL cadeia (de caracteres) A URL do recurso web.
Sim

VectorStoreFileAttributes

Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números.

Nenhuma propriedade definida para este componente.

VectorStoreFileContentResponse

Representa o conteúdo analisado de um ficheiro de armazenamento vetorial.

Nome Tipo Descrição Obrigatório Padrão
dados matriz Conteúdo analisado do ficheiro. Sim
has_more Booleano Indica se há mais páginas de conteúdo para buscar. Sim
next_page cadeia (de caracteres) O token para a página seguinte, se houver. Sim
objecto enumeração O tipo de objeto, que é sempre vector_store.file_content.page
Valores possíveis: vector_store.file_content.page
Sim

VectorStoreSearchRequest

Nome Tipo Descrição Obrigatório Padrão
Filtros Filtro de Comparação ou Filtro Composto Um filtro a aplicar com base nos atributos do ficheiro. Não
max_num_results número inteiro O número máximo de resultados a devolver. Este número deve estar entre 1 e 50, inclusive. Não 10
consulta String ou array Uma cadeia de consulta para uma pesquisa Sim
ranking_options objecto Opções de classificação para pesquisa. Não
└─ Ranker enumeração Valores possíveis: auto, default-2024-11-15 Não
└─ score_threshold Número Não 0
rewrite_query Booleano Se deve reescrever a consulta em linguagem natural para pesquisa vetorial. Não Falso

VectorStoreSearchResultContentObject

Nome Tipo Descrição Obrigatório Padrão
enviar SMS cadeia (de caracteres) O conteúdo do texto retornou da pesquisa. Sim
tipo enumeração O tipo de conteúdo.
Valores possíveis: text
Sim

VectorStoreSearchResultItem

Nome Tipo Descrição Obrigatório Padrão
Atributos VectorStoreFileAttributes Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números.
Sim
conteúdo matriz Fragmentos de conteúdo do ficheiro. Sim
file_id cadeia (de caracteres) O ID do ficheiro de armazenamento vetorial. Sim
Nome do ficheiro cadeia (de caracteres) O nome do ficheiro de armazenamento vetorial. Sim
classificação Número A pontuação de semelhança para o resultado. Sim

VectorStoreSearchResultsPágina

Nome Tipo Descrição Obrigatório Padrão
dados matriz A lista de itens de resultados de pesquisa. Sim
has_more Booleano Indica se há mais resultados para buscar. Sim
next_page cadeia (de caracteres) O token para a página seguinte, se houver. Sim
objecto enumeração O tipo de objeto, que é sempre vector_store.search_results.page
Valores possíveis: vector_store.search_results.page
Sim
search_query matriz Sim

VoiceIdsShared

Nenhuma propriedade definida para este componente.

Espera

Uma ação de espera.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração Especifica o tipo de evento. Para uma ação de espera, esta propriedade é sempre definida para wait.

Valores possíveis: wait
Sim

ReasoningEffort

Limita o esforço de raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.

Propriedade Valor
Descrição Limita o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.
Tipo cadeia (de caracteres)
Padrão meio
Valores low
medium
high

erroEvento

Ocorre quando ocorre um erro. Isto pode acontecer devido a um erro interno do servidor ou a um timeout.

Nome Tipo Descrição Obrigatório Padrão
dados erro Sim
evento cadeia (de caracteres) Sim

event Enum: ErrorEventEnum

Valor Descrição
erro

feitoEvento

Ocorre quando um stream termina.

Nome Tipo Descrição Obrigatório Padrão
dados cadeia (de caracteres) Sim
evento cadeia (de caracteres) Sim

evento Enum: DoneEventEnum

Valor Descrição
Feito

data Enum: DoneEventDataEnum

Valor Descrição
[FEITO]

Próximos passos

Aprenda sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.