Compartilhar via


Azure OpenAI nos Modelos do Azure AI Foundry Guia de Pré-Visualização da API REST

Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.

Especificações da API

O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:

  • Plano de controlo
  • Plano de dados - criação
  • Plano de dados - inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem o seu próprio conjunto exclusivo de visualizações e de versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.

Importante

Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia de ciclo de vida da API.

API Versão de pré-visualização mais recente Última versão do GA Especificações Descrição
Plano de controlo 2024-06-01-preview 2024-10-01 Arquivos de especificações O Azure OpenAI partilha um plano de controlo comum com todos os outros serviços. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure.
Plano de dados - criação 2025-04-01-preview 2024-10-21 Arquivos de especificações A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão, o lote e determinadas consultas de nível de modelo
Plano de dados - inferência 2025-04-01-preview 2024-10-21 Arquivos de especificações A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, áudio, em seus dados, Dall-e, assistentes, etc.

Autenticação

O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a api-key chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.

  • Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos numa solicitação como cabeçalho Authorization. O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.

Controle de versão da API REST

As APIs de serviço são versionadas através do parâmetro de consulta api-version. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a 2025-04-01-preview versão de pré-visualização da especificação de inferência do plano de dados do Azure OpenAI.

Se você estiver procurando documentação sobre a versão mais recente da API do GA, consulte a API de inferência de plano de dados do GA mais recente

Finalizações - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
melhor_de número inteiro Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de completamentos candidatos e n especifica quantos devem ser retornados — best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
eco Booleano Echo de volta o prompt, além da conclusão Não Falso
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhum
Logprobs número inteiro Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhum
máximo de tokens número inteiro O número máximo de tokens que pode ser gerado no decorrer da conclusão.

A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo.
Não 16
n número inteiro Quantas completações gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
avisar cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Sim
sementes número inteiro Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
pare cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. Não
fluxo Booleano Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor de dados únicos, à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Exemplo de código Python.
Não Falso
sufixo cadeia (de caracteres) O sufixo que vem após a conclusão do texto inserido.

Este parâmetro só é suportado para gpt-3.5-turbo-instruct.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json createCompletionResponse

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporações - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres) A ID de implantação do modelo que foi implantado.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
dimensões número inteiro O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. Não
formato de codificação cadeia (de caracteres) O formato para retornar as incorporações. Tanto pode ser float como base64. O padrão é float. Não
dados introduzidos cadeia de caracteres ou matriz Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2048 dimensões ou menos. Sim
tipo_de_entrada cadeia (de caracteres) tipo de entrada de pesquisa de incorporação a ser usada Não
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objecto

Exemplos

Exemplo

Retorne as incorporações para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusão do bate-papo - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Cria uma conclusão para a mensagem de chat

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
áudio objecto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. Não
└─ formato enumeração Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16.

Valores possíveis: wav, mp3, flac, opus, , pcm16
Não
└─ voz enumeração Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, novae shimmer.

Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer
Não
fontes_de_dados matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
Não
funções matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.
Não Nenhum
Logprobs Booleano Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. Não Falso
tokens_máximos_de_conclusão número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. Não
máximo de tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. Sim
metadados objecto Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. Não
Modalidades ChatCompletionModalities Tipos de saída que você gostaria que o modelo gerasse para essa solicitação.
A maioria dos modelos são capazes de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
Não
n número inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. Não 1
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
predição Previsão-Conteúdo Configuração para uma saída prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. Não
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
esforço de raciocínio enumeração Apenas modelos O1

Restringe o esforço no raciocínio para modelos de raciocínio.

Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Valores possíveis: low, medium, high
Não
formato_de_resposta ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, que garantem a correspondência do modelo ao esquema JSON fornecido.

Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
sementes número inteiro Este recurso está em versão Beta.
Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
pare cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens.
Não
armazenar Booleano Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. Não
fluxo Booleano Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos apenas de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo de código Python.
Não Falso
opções_de_transmissão chatCompletionStreamOptions Opções de resposta em streaming. Defina isso apenas quando definir stream: true.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
escolha_de_ferramenta chatCompletionToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. Não
Ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas.
Não
top_logprobs número inteiro Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
contexto_de_segurança_do_utilizador userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objecto

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados vetoriais de imagem da Pesquisa do Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o banco de dados Mongo fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Elasticsearch fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o recurso Pinecone fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcreve o áudio para o idioma de entrada.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O objeto do arquivo de áudio a ser transcrito. Sim
linguagem cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
granularidade_de_timestamp[] matriz As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word, ou segment. Nota: Não há latência adicional nos carimbos de data/hora para segmentos, mas a geração de carimbos de data/hora para palavras resulta em latência adicional. Não ['segmento']

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objecto
texto simples cadeia (de caracteres) Texto transcrito no formato de saída (quando response_format era um dos text, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcreve e traduz áudio de entrada para texto em inglês.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O arquivo de áudio a ser traduzido. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objecto
texto simples cadeia (de caracteres) Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Fala - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Gera áudio a partir do texto de entrada.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Predefinido
dados introduzidos cadeia (de caracteres) O texto para sintetizar áudio. O comprimento máximo é de 4096 caracteres. Sim
formato_de_resposta enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, , wav, pcm
Não
velocidade número A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é o padrão. Não 1.0
voz enumeração A voz a ser usada para síntese de fala.
Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer
Sim

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
aplicação/octet-stream cadeia (de caracteres)

Exemplos

Exemplo

Sintetiza o áudio do texto fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Respostas: Código de status: 200

{
  "body": "101010101"
}

Gerações de imagens - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Gera um lote de imagens a partir de uma legenda de texto numa determinada implementação de um modelo DALLE ou gpt-image-1.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
em segundo plano imagem fundo Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1. Não automóvel
n número inteiro O número de imagens a gerar. Para DALL-E-3, é suportado apenas n=1. Não 1
compressão_de_saída número inteiro O nível de compressão (0-100%) para as imagens geradas. Este parâmetro só é suportado para gpt-image-1 com o formato de saída jpeg. Não 100
formato_de_saida imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1. Não PNG
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para gpt-image-1 e 4000 caracteres para dall-e-3 Sim
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não automóvel
formato_de_resposta imagesResponseFormat O formato em que as imagens geradas são retornadas. Não URL
tamanho imageSize O tamanho das imagens geradas. Não automóvel
estilo imageStyle O estilo das imagens geradas. Apenas suportado para dall-e-3. Não vívido
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

Respostas

Código de status: 200

Descrição: Ok

Tipo de conteúdo Tipo Descrição
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Tipo de conteúdo Tipo Descrição
application/json dalleErrorResponse

Exemplos

Exemplo

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Gerações de imagens - Editar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Edita uma imagem a partir de uma legenda de texto numa determinada implementação do modelo gpt-image-1

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Predefinido
imagem cadeia de caracteres ou matriz A(s) imagem(ns) a editar. Deve ser um arquivo de imagem suportado ou uma matriz de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. Sim
máscara cadeia (de caracteres) Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões que a imagem. Não
n número inteiro O número de imagens a gerar. Não 1
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. Sim
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não automóvel
formato_de_resposta imagesResponseFormat O formato em que as imagens geradas são retornadas. Não URL
tamanho imageSize O tamanho das imagens geradas. Não automóvel
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

Respostas

Código de status: 200

Descrição: Ok

Tipo de conteúdo Tipo Descrição
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Tipo de conteúdo Tipo Descrição
application/json dalleErrorResponse

Lista - Assistentes

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Retorna uma lista de assistentes.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listAssistantsResponse

Exemplos

Exemplo

Retorna uma lista de assistentes.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Criar - Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Crie um assistente com um modelo e instruções.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) Sim
nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
formato_de_resposta assistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
└─ armazenamento_de_vetores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json assistantObject

Exemplos

Exemplo

Crie um assistente com um modelo e instruções.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obter - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Recupera um assistente.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_do_assistente caminho Sim cadeia (de caracteres) O ID do assistente a ser recuperado.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json assistantObject

Exemplos

Exemplo

Recupera um assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modificar - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica um assistente.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_do_assistente caminho Sim cadeia (de caracteres) A identificação do assistente a ser modificada.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) Não
nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json assistantObject

Exemplos

Exemplo

Modifica um assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Excluir - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Excluir um assistente.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_do_assistente caminho Sim cadeia (de caracteres) O identificador do assistente a ser eliminado.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteAssistantResponse

Exemplos

Exemplo

Exclui um assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Criar - Thread

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Crie um thread.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
mensagens matriz Uma lista de mensagens para iniciar o thread. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
recursos_ferramenta objecto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não
└─ armazenamento_de_vetores matriz Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json threadObject

Exemplos

Exemplo

Cria um thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obter - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera um thread.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID do tópico que deve ser recuperado.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json threadObject

Exemplos

Exemplo

Recupera um thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modificar - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica um thread.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID do tópico a ser modificado. Apenas o metadata pode ser modificado.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
recursos_ferramenta objecto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json threadObject

Exemplos

Exemplo

Modifica um thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Excluir - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Exclua um thread.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) A ID do thread a ser excluído.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteThreadResponse

Exemplos

Exemplo

Exclui um thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Lista - Mensagens

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Retorna uma lista de mensagens para um determinado thread.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID dos threads aos quais as mensagens pertencem.
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
identificador_de_execução consulta Não cadeia (de caracteres) Filtre as mensagens pelo ID de execução que as gerou.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listMessagesResponse

Exemplos

Exemplo

Listar mensagens

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Criar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Criar uma mensagem.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) A ID dos threads para os quais criar uma mensagem.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
Anexos matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
função cadeia (de caracteres) A função da entidade que está criando a mensagem. Os valores permitidos incluem:
- user: Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Sim

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json messageObject

Exemplos

Exemplo

Criar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obter - Mensagem

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recuperar uma mensagem.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) A ID dos threads aos quais esta mensagem pertence.
ID da mensagem caminho Sim cadeia (de caracteres) O ID da mensagem a ser recuperada.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json messageObject

Exemplos

Exemplo

Recuperar uma mensagem.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modificar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica uma mensagem.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) A ID do thread ao qual esta mensagem pertence.
ID da mensagem caminho Sim cadeia (de caracteres) O ID da mensagem a ser modificada.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json messageObject

Exemplos

Exemplo

Modificar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Criar - Thread e Executar

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Crie um thread e execute-o em uma solicitação.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_assistente cadeia (de caracteres) A ID do assistente a ser usado para executar essa execução. Sim
Instruções cadeia (de caracteres) Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
tokens_máximos_de_conclusão número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
max_prompt_tokens (número máximo de tokens de aviso) número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
fluxo Booleano Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
opções_de_transmissão chatCompletionStreamOptions Opções de resposta em streaming. Defina isso apenas quando definir stream: true.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
conversa createThreadRequest Não
escolha_de_ferramenta assistantsApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
estratégia de truncamento truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject

Exemplos

Exemplo

Crie um thread e execute-o em uma solicitação.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Lista - Execuções

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retorna uma lista de execuções pertencentes a um thread.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) A ID do thread ao qual a execução pertence.
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listRunsResponse

Exemplos

Exemplo

Retorna uma lista de execuções pertencentes a um thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Criar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Crie uma execução.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID do tópico a executar.
incluir[] consulta Não matriz Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
instruções adicionais cadeia (de caracteres) Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. Não
mensagens_adicionais matriz Adiciona mensagens adicionais ao thread antes de criar a execução. Não
identificador_do_assistente cadeia (de caracteres) A ID do assistente a ser usado para executar essa execução. Sim
Instruções cadeia (de caracteres) Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
tokens_máximos_de_conclusão número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
max_prompt_tokens (número máximo de tokens de aviso) número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
fluxo Booleano Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
escolha_de_ferramenta assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
Ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
estratégia de truncamento truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject

Exemplos

Exemplo

Crie uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obter - Executar

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera uma execução.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID dos threads que foram executados.
identificador_de_execução caminho Sim cadeia (de caracteres) O identificador da execução a ser recuperada.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject

Exemplos

Exemplo

Consegue uma corrida.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modificar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica uma execução.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID dos threads que foram executados.
identificador_de_execução caminho Sim cadeia (de caracteres) O ID da execução a ser modificada.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject

Exemplos

Exemplo

Modifica uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Enviar - Saídas da ferramenta para executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) A ID dos threads aos quais essa execução pertence.
identificador_de_execução caminho Sim cadeia (de caracteres) O ID da execução que requere a submissão da saída da ferramenta.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
fluxo Booleano Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
saídas_da_ferramenta matriz Uma lista de ferramentas para as quais os resultados estão sendo enviados. Sim

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject

Exemplos

Exemplo

Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Cancelar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Cancela uma execução que é in_progress.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID do thread ao qual esta execução pertence.
identificador_de_execução caminho Sim cadeia (de caracteres) A identificação da execução a ser cancelada.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject

Exemplos

Exemplo

Cancela uma execução que é in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Lista - Executar etapas

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retorna uma lista de etapas de execução pertencentes a uma execução.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID do thread ao qual pertencem a execução e as etapas de execução.
identificador_de_execução caminho Sim cadeia (de caracteres) O ID da execução a que as etapas de execução pertencem.
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
Versão da API consulta Sim cadeia (de caracteres)
incluir[] consulta Não matriz Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listRunStepsResponse

Exemplos

Exemplo

Retorna uma lista de etapas de execução pertencentes a uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Obter - Executar etapa

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera uma etapa de execução.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
ID de thread caminho Sim cadeia (de caracteres) O ID do thread a qual a execução e etapa de execução pertence.
identificador_de_execução caminho Sim cadeia (de caracteres) O identificador da execução à qual a etapa de execução pertence.
step_id caminho Sim cadeia (de caracteres) O identificador do passo de execução a ser recuperado.
incluir[] consulta Não matriz Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos.
Versão da API consulta Sim cadeia (de caracteres)

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runStepObject

Exemplos

Exemplo

Recupera uma etapa de execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Lista - Vetor Stores

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retorna uma lista de repositórios vetoriais.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listVectorStoresResponse

Exemplos

Exemplo

Retorna uma lista de repositórios vetoriais.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Criar - Loja de vetores

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Crie um repositório vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. Não
expira após vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
identificadores_de_arquivo matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
nome cadeia (de caracteres) O nome do repositório de vetores. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreObject

Exemplos

Exemplo

Cria um repositório vetorial.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obter - Loja de vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera um armazenamento de vetores.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) O ID do repositório de vetores a ser recuperado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreObject

Exemplos

Exemplo

Recupera um armazenamento de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modificar - Vetor Store

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica um armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) O ID do repositório de vetores a ser modificado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
expira após vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
nome cadeia (de caracteres) O nome do repositório de vetores. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreObject

Exemplos

Exemplo

Modifica um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Excluir - Vetor Store

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Exclua um repositório de vetores.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) O identificador do repositório de vetores a eliminar.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteVectorStoreResponse

Exemplos

Exemplo

Exclui um repositório vetorial.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Lista - Arquivos de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos de armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do armazenamento vetorial ao qual os arquivos pertencem.
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta Não cadeia (de caracteres)
Valores possíveis: in_progress, completed, failed, cancelled
Filtrar por estado do ficheiro. Um de in_progress, completed, failed, cancelled.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listVectorStoreFilesResponse

Exemplos

Exemplo

Retorna uma lista de arquivos de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar - Arquivo de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do repositório de vetores para o qual criar um arquivo.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não
identificação_de_ficheiro cadeia (de caracteres) Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileObject

Exemplos

Exemplo

Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obter - Arquivo de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera um arquivo de armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do repositório vetorial ao qual o arquivo pertence.
identificação_de_ficheiro caminho Sim cadeia (de caracteres) A ID do arquivo que está sendo recuperado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileObject

Exemplos

Exemplo

Recupera um arquivo de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Excluir - Arquivo de armazenamento vetorial

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do repositório vetorial ao qual o arquivo pertence.
identificação_de_ficheiro caminho Sim cadeia (de caracteres) A ID do arquivo a ser excluído.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteVectorStoreFileResponse

Exemplos

Exemplo

Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

AtualizarAtributosDoFicheiroDeArmazenamentoDeVetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Atualizar atributos em um arquivo de armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do armazenamento vetorial ao qual o arquivo pertence.
identificação_de_ficheiro caminho Sim cadeia (de caracteres) A ID do arquivo para atualizar atributos.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
atributos VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números.
Sim

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileObject

Recuperar conteúdo do arquivo de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recupere o conteúdo analisado de um arquivo de armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) O ID do repositório de vetores.
identificação_de_ficheiro caminho Sim cadeia (de caracteres) A ID do arquivo dentro do repositório de vetores.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json VectorStoreFileContentResponse

Procurar no armazenamento de vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Pesquise partes relevantes em um repositório vetorial com base em um filtro de atributos de consulta e arquivo.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) O ID do repositório de vetores a ser pesquisado.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
filtros ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. Não
máximo_número_de_resultados número inteiro O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. Não 10
consulta cadeia de caracteres ou matriz Uma cadeia de caracteres de consulta para uma pesquisa Sim
opções_de_classificação objecto Opções de classificação para pesquisa. Não
└─ classificador enumeração
Valores possíveis: auto, default-2024-11-15
Não
└─ limiar_de_pontuação número Não 0
reformular_consulta Booleano Se a consulta de linguagem natural deve ser reescrita para pesquisa vetorial. Não Falso

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json VectorStoreSearchResultsPage

Criar - Lote de arquivos de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Crie um lote de arquivo de armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) O ID do repositório vetorial para o qual criar um lote de ficheiros.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não
identificadores_de_arquivo matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileBatchObject

Exemplos

Exemplo

Crie um lote de arquivo de armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Respostas: Código de status: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Obter - Vetor Store File Batch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera um lote de arquivo de armazenamento vetorial.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do armazenamento vetorial ao qual o lote de arquivos pertence.
batch_id caminho Sim cadeia (de caracteres) O ID do lote de ficheiros que está a ser recuperado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileBatchObject

Exemplos

Exemplo

Recupera um lote de arquivo de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Cancelar - Lote de arquivos de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do armazenamento vetorial ao qual o lote de arquivos pertence.
batch_id caminho Sim cadeia (de caracteres) O identificador do lote de arquivos a cancelar.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileBatchObject

Exemplos

Exemplo

Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Lista - Arquivos em lote de arquivos de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos de armazenamento vetorial em um lote.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_armazenamento_vetor caminho Sim cadeia (de caracteres) A ID do armazenamento vetorial ao qual os arquivos pertencem.
batch_id caminho Sim cadeia (de caracteres) A ID do lote de arquivos ao qual os arquivos pertencem.
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
Ordem de classificação pela marcação created_at de data e hora dos objetos. asc por ordem crescente e desc por ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um cursor para uso na paginação. after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
antes consulta Não cadeia (de caracteres) Um cursor para uso na paginação. before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta Não cadeia (de caracteres)
Valores possíveis: in_progress, completed, failed, cancelled
Filtrar por estado do ficheiro. Um de in_progress, completed, failed, cancelled.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listVectorStoreFilesResponse

Exemplos

Exemplo

Retorna uma lista de arquivos de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar - Sessão em Tempo Real

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Crie um token de API efêmero para uso em aplicativos do lado do cliente com a API em tempo real. Pode ser configurado com os mesmos parâmetros de sessão que o evento do session.update cliente. Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmero utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
formato_de_entrada_de_áudio enumeração O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
redução_de_ruído_de_entrada_áudio objecto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada.
Não
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
Não
transcrição_de_áudio_de_entrada objecto Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do ponto de extremidade das transcrições e deve ser tratada como orientação sobre o conteúdo do áudio de entrada, em vez de exatamente o que o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição.
Não
└─ língua cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhorará a precisão e a latência.
Não
└─ modelo cadeia (de caracteres) O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee whisper-1.
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
Não
Instruções cadeia (de caracteres) As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.

Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão.
Não
tokens_de_output_de_resposta_máxima inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf.
Não
Modalidades O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"].
Não
modelo cadeia (de caracteres) O nome da implementação utilizada para esta sessão.
Não
formato_de_áudio_de_saida enumeração O formato de saída de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
temperatura número Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para o melhor desempenho.
Não 0.8
escolha_de_ferramenta cadeia (de caracteres) Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
Não automóvel
Ferramentas matriz Ferramentas (funções) disponíveis para o modelo. Não
detecção de viragem objecto Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
Não
└─ criar_resposta Booleano Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo em responder. low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ resposta_de_interrupção Booleano Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD.
Não Verdade
└─ preenchimento_prefixo_ms número inteiro Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms.
Não
└─ duração_do_silêncio_ms número inteiro Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador.
Não
└─ limiar número Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos.
Não
└─ tipo enumeração Tipo de deteção de curvas.

Valores possíveis: server_vad, semantic_vad
Não
voz VoiceIdsShared Não

Respostas

Código de status: 200

Descrição: Sessão criada com êxito.

Tipo de conteúdo Tipo Descrição
application/json RealtimeSessionCreateResponse

Criar - Sessão de Transcrição em Tempo Real

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Crie um token de API efêmero para uso em aplicativos do lado do cliente com a API em tempo real especificamente para transcrições em tempo real. Pode ser configurado com os mesmos parâmetros de sessão que o evento do transcription_session.update cliente. Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmero utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
incluem matriz O conjunto de itens a incluir na transcrição. Os itens disponíveis atualmente são:
- item.input_audio_transcription.logprobs
Não
formato_de_entrada_de_áudio enumeração O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
redução_de_ruído_de_entrada_áudio objecto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada.
Não
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
Não
transcrição_de_áudio_de_entrada objecto Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição.
Não
└─ língua cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhorará a precisão e a latência.
Não
└─ modelo enumeração O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, whisper-1
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
Não
Modalidades O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"].
Não
detecção de viragem objecto Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
Não
└─ criar_resposta Booleano Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo em responder. low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ resposta_de_interrupção Booleano Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ preenchimento_prefixo_ms número inteiro Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms.
Não
└─ duração_do_silêncio_ms número inteiro Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador.
Não
└─ limiar número Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos.
Não
└─ tipo enumeração Tipo de deteção de curvas.

Valores possíveis: server_vad, semantic_vad
Não

Respostas

Código de status: 200

Descrição: Sessão criada com êxito.

Tipo de conteúdo Tipo Descrição
application/json RealtimeTranscriptionSessionCreateResponse

Respostas

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Cria uma resposta de modelo.

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
incluem matriz Não
dados introduzidos cadeia de caracteres ou matriz Entradas de modelo Sim
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Não
max_output_tokens (máximo de tokens de saída) número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
Não
chamadas_de_ferramentas_em_paralelo Booleano Se deve permitir que o modelo execute chamadas de ferramenta em paralelo.
Não Verdade
ID_de_resposta_anterior cadeia (de caracteres) O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversação.
Não
Fundamentação Fundamentação Apenas modelos da série O

Opções de configuração para modelos de raciocínio.
Não
armazenar Booleano Se a resposta do modelo gerado deve ser armazenada para recuperação posterior via API.
Não Verdade
fluxo Booleano Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor.
Consulte a seção Streaming abaixo para obter mais informações.
Não Falso
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- Entradas e saídas de texto
- Saídas Estruturadas
Não
└─ formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve produzir.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam.
Não
escolha_de_ferramenta ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Não
Ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o
Capacidades do modelo
Não
truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json resposta
texto/fluxo de eventos responseStreamEvent

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

API de respostas - itens de entrada

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera uma resposta do modelo com a ID fornecida.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_resposta caminho Sim cadeia (de caracteres) O ID da resposta a ser recuperada.
incluem consulta Não matriz Campos adicionais a incluir na resposta. Consulte o parâmetro include para a criação de resposta acima para obter mais informações.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json resposta

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Excluir resposta

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Exclui uma resposta do modelo com o ID fornecido.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_resposta caminho Sim cadeia (de caracteres) O ID da resposta a eliminar.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Código de status: 404

Descrição: Não encontrado

Tipo de conteúdo Tipo Descrição
application/json erro

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

API de respostas - lista de itens de resposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retorna uma lista de itens de entrada para uma determinada resposta.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim URL de string Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador_de_resposta caminho Sim cadeia (de caracteres) O ID da resposta para obter os itens de entrada.
limite consulta Não número inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
Ordem / Encomenda consulta Não cadeia (de caracteres)
Valores possíveis: asc, desc
A ordem em que os itens de entrada devem ser retornados. A predefinição é asc.
- asc: Retorne os itens de entrada em ordem crescente.
- desc: Retorne os itens de entrada em ordem decrescente.
depois de consulta Não cadeia (de caracteres) Um ID de item para listar itens depois, usado na paginação.
antes consulta Não cadeia (de caracteres) Um ID de item usado para listar itens anteriores na paginação.

Cabeçalho da solicitação

Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Nome Obrigatório Tipo Descrição
Autorização Verdade cadeia (de caracteres) Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbito de aplicação: https://cognitiveservices.azure.com/.default
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json responseItemList

Componentes

Resposta de Erro

Nome Tipo Descrição Obrigatório Predefinido
erro erro Não

Base de Dados de Erros

Nome Tipo Descrição Obrigatório Predefinido
código cadeia (de caracteres) Não
mensagem cadeia (de caracteres) Não

erro

Nome Tipo Descrição Obrigatório Predefinido
erro_interno innerError Erro interno com detalhes adicionais. Não
parâmetro cadeia (de caracteres) Não
tipo cadeia (de caracteres) Não

erro interno

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Predefinido
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
resultados_do_filtro_de_conteúdo contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

códigoDeErroInterno

Códigos de erro para o objeto de erro interno.

Propriedade Valor
Descrição Códigos de erro para o objeto de erro interno.
Tipo cadeia (de caracteres)
Valores ResponsibleAIPolicyViolation

dalleErrorResponse

Nome Tipo Descrição Obrigatório Predefinido
erro dalleError Não

dalleError

Nome Tipo Descrição Obrigatório Predefinido
erro_interno dalleInnerError Erro interno com detalhes adicionais. Não
parâmetro cadeia (de caracteres) Não
tipo cadeia (de caracteres) Não

dalleInnerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Predefinido
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
resultados_do_filtro_de_conteúdo dalleFilterResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não
Proposta de Melhorias: - Certificar-se de que as frases e termos são traduzidos corretamente para refletir o mesmo significado do texto de origem. - Adaptar quaisquer termos em inglês que possam ser traduzidos naturalmente para português, preservando o seu significado. - Corrigir quaisquer questões gramaticais para aumentar a fluência e a legibilidade em português. - Usar a estrutura de frases em português natural para que a tradução soe nativa. - Verificar o uso apropriado de pontuação e registro para o português. cadeia (de caracteres) O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. Não

completaçãoDoFiltroDeConteúdoIntervaloDeTexto

Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.

Nome Tipo Descrição Obrigatório Predefinido
deslocamento_de_fim_de_conclusão número inteiro Deslocamento do primeiro ponto de código UTF32 que é excluído da extensão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para intervalos não vazios. Sim
deslocamento_início_conclusão número inteiro Deslocamento do ponto de código UTF32 que inicia a extensão. Sim

resultadoBaseFiltroDeConteúdo

Nome Tipo Descrição Obrigatório Predefinido
filtrado Booleano Sim

resultadoDeSeveridadeDoFiltroDeConteúdo

Nome Tipo Descrição Obrigatório Predefinido
filtrado Booleano Sim
gravidade cadeia (de caracteres) Não

resultado de deteção de filtro de conteúdo

Nome Tipo Descrição Obrigatório Predefinido
detetada Booleano Não
filtrado Booleano Sim

Detetado filtro de conteúdo com resultado de citação

Nome Tipo Descrição Obrigatório Predefinido
citação objecto Não
└─ URL cadeia (de caracteres) Não
└─ licença cadeia (de caracteres) Não

DeteçãoDeFiltroDeConteúdoComResultadoDeTextSpans

Nome Tipo Descrição Obrigatório Predefinido
detalhes matriz Não

ResultadoDeIdDeFiltroDeConteúdo

Nome Tipo Descrição Obrigatório Predefinido
filtrado Booleano Sim
ID cadeia (de caracteres) Não

baseDeResultadosDoFiltroDeConteúdo

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Obrigatório Predefinido
listas_de_bloqueio_personalizadas resultadosDetalhadosDoFiltroDeConteúdo Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
erro Base de erro Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não

Resultados de Filtro de Conteúdo

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Obrigatório Predefinido
listas_de_bloqueio_personalizadas resultadosDetalhadosDoFiltroDeConteúdo Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
erro Base de erro Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
ataque indireto resultadoDetetadoDoFiltroDeConteúdo Não
fuga da prisão resultadoDetetadoDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não

resultadosEscolhaFiltroConteúdo

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Obrigatório Predefinido
listas_de_bloqueio_personalizadas resultadosDetalhadosDoFiltroDeConteúdo Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
erro Base de erro Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
código_material_protegido filtroDeConteúdoDetetadoComResultadoDeCitação Não
texto_material_protegido resultadoDetetadoDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
material não aterrado resultadoDetetadoFiltroDeConteúdoComTextSpansDeConclusão Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não

resultadosDetalhadosDoFiltroDeConteúdo

Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados.

Nome Tipo Descrição Obrigatório Predefinido
detalhes matriz Não
filtrado Booleano Sim

Resultado do Filtro de Prompt

Resultados da filtragem de conteúdo para um único prompt na solicitação.

Nome Tipo Descrição Obrigatório Predefinido
resultados_do_filtro_de_conteúdo contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não
índice_de_prompt número inteiro Não

promptFiltrarResultados

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.

Nenhuma propriedade definida para este componente.

Resultados do Filtro de Conteúdo do Dalle

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Obrigatório Predefinido
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não

DalleFiltroResultados

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Obrigatório Predefinido
listas_de_bloqueio_personalizadas resultadosDetalhadosDoFiltroDeConteúdo Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
fuga da prisão resultadoDetetadoDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não

chatConclucoesPedidoComum

Nome Tipo Descrição Obrigatório Predefinido
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Não
tokens_máximos_de_conclusão número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. Não
máximo de tokens número inteiro O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt). Isto não é compatível com os modelos da série o1. Não 4096
metadados objecto Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. Não
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
pare cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. Não
armazenar Booleano Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. Não
fluxo Booleano Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não Falso
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. Não

criarPedidoDeConclusão

Nome Tipo Descrição Obrigatório Predefinido
melhor_de número inteiro Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.

Quando usado com no , best_of controla o número de candidatos concluídos e n especifica quantos devem ser retornados. best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
eco Booleano Echo de volta o prompt, além da conclusão
Não Falso
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhum
Logprobs número inteiro Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhum
máximo de tokens número inteiro O número máximo de tokens que pode ser gerado no decorrer da conclusão.

A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo.
Não 16
n número inteiro Quantas completações gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
avisar cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Sim
sementes número inteiro Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
pare cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. O texto devolvido não conterá a sequência de paragem.
Não
fluxo Booleano Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor de dados únicos, à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Exemplo de código Python.
Não Falso
sufixo cadeia (de caracteres) O sufixo que vem após a conclusão do texto inserido.

Este parâmetro só é suportado para gpt-3.5-turbo-instruct.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

criarRespostaDeConclusão

Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).

Nome Tipo Descrição Obrigatório Predefinido
escolhas matriz A lista de opções de conclusão que o modelo gerou para o prompt de entrada. Sim
criado número inteiro A marca temporal Unix (em segundos) de quando a conclusão foi criada. Sim
ID cadeia (de caracteres) Um identificador exclusivo para a conclusão. Sim
modelo cadeia (de caracteres) O modelo utilizado para a conclusão. Sim
objecto enumeração O tipo de objeto, que será sempre "text_completion"
Valores possíveis: text_completion
Sim
filtrar_resultados_prompt promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. Não
impressão_digital_do_sistema cadeia (de caracteres) Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.
Não
utilização conclusãoUso Estatísticas de utilização do pedido de preenchimento. Não

criarPedidoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
áudio objecto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. Não
└─ formato enumeração Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16.

Valores possíveis: wav, mp3, flac, opus, , pcm16
Não
└─ voz enumeração Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, novae shimmer.

Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer
Não
fontes_de_dados matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
Não
funções matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.
Não Nenhum
Logprobs Booleano Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. Não Falso
tokens_máximos_de_conclusão número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. Não
máximo de tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. Sim
metadados objecto Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. Não
Modalidades ChatCompletionModalities Tipos de saída que você gostaria que o modelo gerasse para essa solicitação.
A maioria dos modelos são capazes de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
Não
n número inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. Não 1
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
predição Previsão-Conteúdo Configuração para uma saída prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. Não
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
esforço de raciocínio enumeração Apenas modelos O1

Restringe o esforço no raciocínio para modelos de raciocínio.

Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Valores possíveis: low, medium, high
Não
formato_de_resposta ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, que garantem a correspondência do modelo ao esquema JSON fornecido.

Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
sementes número inteiro Este recurso está em versão Beta.
Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
pare cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens.
Não
armazenar Booleano Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. Não
fluxo Booleano Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos apenas de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo de código Python.
Não Falso
opções_de_transmissão chatCompletionStreamOptions Opções de resposta em streaming. Defina isso apenas quando definir stream: true.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
escolha_de_ferramenta chatCompletionToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. Não
Ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas.
Não
top_logprobs número inteiro Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
contexto_de_segurança_do_utilizador userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud. Não

contextoDeSegurançaDoUsuário

O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud.

Nome Tipo Descrição Obrigatório Predefinido
nome_da_aplicação cadeia (de caracteres) O nome do aplicativo. As informações pessoais sensíveis não devem ser incluídas neste campo. Não
id_utilizador_final cadeia (de caracteres) Esse identificador é a ID do objeto de usuário do Microsoft Entra ID (anteriormente Azure Ative Directory) usada para autenticar usuários finais no aplicativo de IA generativa. As informações pessoais sensíveis não devem ser incluídas neste campo. Não
Identificador_inquilino_utilizador_final cadeia (de caracteres) O ID de locatário do Microsoft 365 ao qual o usuário final pertence. É necessário quando o aplicativo de IA generativa é multilocatário. Não
IP de origem cadeia (de caracteres) Captura o endereço IP do cliente original, aceitando os formatos IPv4 e IPv6. Não

Funções de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
nome cadeia (de caracteres) O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
parâmetros FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não

Opção de chamada de função do chatCompletion

Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

Nome Tipo Descrição Obrigatório Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada. Sim

parâmetrosDeFunçãoDeConclusãoDeChat

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato.

Nenhuma propriedade definida para este componente.

mensagemDeSolicitaçãoDeConclusãoDoChat

Este componente pode ser um dos seguintes:

MensagemDoDesenvolvedorParaRequisiçãoDeConclusãoDoChat

Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos o1 e mais recentes, developer as mensagens substituem as mensagens anteriores system .

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do desenvolvedor. Sim
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não
função enumeração O papel do autor das mensagens, neste caso developer.
Valores possíveis: developer
Sim

MensagemDoSistemaDeSolicitaçãoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do sistema. Sim
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não
função enumeração O papel do autor das mensagens, neste caso system.
Valores possíveis: system
Sim

MensagemDePedidoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do usuário.
Sim
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não
função enumeração O papel do autor das mensagens, neste caso user.
Valores possíveis: user
Sim

MensagemDoAssistenteDePedidoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado.
Não
function_call objecto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
└─ argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Não
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não
recusa cadeia (de caracteres) A mensagem de recusa por parte do assistente. Não
função enumeração O papel do autor das mensagens, neste caso assistant.
Valores possíveis: assistant
Sim
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não

mensagemDeFerramentaDeSolicitaçãoDeConclusãoDeConversa

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem da ferramenta. Sim
função enumeração O papel do autor das mensagens, neste caso tool.
Valores possíveis: tool
Sim
tool_call_id cadeia (de caracteres) Chamada de ferramenta à qual esta mensagem está respondendo. Sim

Mensagem de Função de Pedido de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia (de caracteres) O conteúdo da mensagem de função. Sim
nome cadeia (de caracteres) O nome da função a ser chamada. Sim
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: function
Sim

parteDoConteúdoDaMensagemDoDesenvolvedorParaPedidoDeConclusãoDoChat

Este componente pode ser um dos seguintes:

parteDeConteúdoDaMensagemDeSistemaDePedidoDeConclusãoDeChat

Este componente pode ser um dos seguintes:

ParteDoConteúdoDaMensagemDoUsuárioChatCompletionRequest

Este componente pode ser um dos seguintes:

ParteDoConteúdoDaMensagemDoAssistenteDeSolicitaçãoDeConclusãoDoChat

Este componente pode ser um dos seguintes:

mensagemDeConteúdoFerramentaPedidoDeConclusãoChat

Este componente pode ser um dos seguintes:

conteúdoDaMensagemDePedidoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) O conteúdo do texto. Sim
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: text
Sim

ConteúdoParteAudioDaMensagemDePedidoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
áudio_de_entrada objecto Sim
└─ dados cadeia (de caracteres) Dados de áudio codificados em Base64. Não
└─ formato enumeração O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3".

Valores possíveis: wav, mp3
Não
tipo enumeração O tipo da parte de conteúdo. Sempre input_audio.
Valores possíveis: input_audio
Sim

conteúdoDeImagemDeMensagemDePedidoDeConversa

Nome Tipo Descrição Obrigatório Predefinido
image_url objecto Sim
└─ detalhe enumeração Especifica o nível de detalhe da imagem. Saiba mais no guia Visão.
Valores possíveis: auto, low, high
Não
└─ URL cadeia (de caracteres) Um URL da imagem ou os dados de imagem codificados em base64. Não
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: image_url
Sim

recusaDeParteDoConteúdoDaMensagemDeRequisiçãoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Sim
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: refusal
Sim

Configuração de Extensão do Azure Chat

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

###Discriminator para "azureChatExtensionConfiguration"

Este componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Esquema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Nome Tipo Descrição Obrigatório Predefinido
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

AzureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Propriedade Valor
Descrição Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Tipo cadeia (de caracteres)
Valores azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguração

Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
parâmetros azureSearchChatExtensionParameters (Parâmetros de Extensão de Chat da Pesquisa Azure) Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

ParâmetrosDeExtensãoDeChatDeBuscaAzure

Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
permitir_resultado_parcial Booleano Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions (opções de autenticação) Sim
incorporar_dependência onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource Não
ponto final cadeia (de caracteres) O caminho absoluto do endpoint para o recurso Azure Search a ser utilizado. Sim
mapeamento_de_campos Opções de Mapeamento de Campo do Índice de Pesquisa Azure Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. Não
filtro cadeia (de caracteres) Filtro de pesquisa. Não
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
incluir_contextos matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não
nome_do_índice cadeia (de caracteres) O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. Sim
consultas_de_pesquisa_máximas número inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
tipo_de_consulta azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. Não
configuração semântica cadeia (de caracteres) A configuração semântica adicional para a consulta. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não

Opções de Mapeamento de Campos do Índice de Pesquisa do Azure

Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.

Nome Tipo Descrição Obrigatório Predefinido
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campos_de_vetores_de_imagem matriz Os nomes dos campos que representam dados vetoriais de imagem. Não
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não
campos vetoriais matriz Os nomes dos campos que representam dados vetoriais. Não

Tipo de Consulta do Azure Search

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Propriedade Valor
Descrição O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Tipo cadeia (de caracteres)
Valores simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

Configuração de Extensão de Chat do Azure Cosmos DB

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
parâmetros azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

ParâmetrosDaExtensãoDeChatDoAzureCosmosDB

Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Nome Tipo Descrição Obrigatório Predefinido
permitir_resultado_parcial Booleano Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação nasOpçõesDeAutenticaçãoDaStringDeConexãoDeDados As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. Sim
nome_do_conteiner cadeia (de caracteres) O nome do contêiner de recursos do Azure Cosmos DB. Sim
nome_da_base_de_dados cadeia (de caracteres) O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. Sim
incorporar_dependência onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim
mapeamento_de_campos azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Sim
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
incluir_contextos matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não
nome_do_índice cadeia (de caracteres) O nome do índice vCore do MongoDB para usar com o Azure Cosmos DB. Sim
consultas_de_pesquisa_máximas número inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não

Opções de Mapeamento de Campos do azureCosmosDB

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Nome Tipo Descrição Obrigatório Predefinido
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não
campos vetoriais matriz Os nomes dos campos que representam dados vetoriais. Sim

Configuração da Extensão de Chat do Elasticsearch

Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
parâmetros elasticsearchChatExtensionParameters Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

Parâmetros da Extensão de Chat do Elasticsearch

Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
permitir_resultado_parcial Booleano Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Sim
incorporar_dependência onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource Não
ponto final cadeia (de caracteres) O ponto de extremidade do Elasticsearch®. Sim
mapeamento_de_campos elasticsearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. Não
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
incluir_contextos matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não
nome_do_índice cadeia (de caracteres) O nome do índice do Elasticsearch®. Sim
consultas_de_pesquisa_máximas número inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
tipo_de_consulta elasticsearchQueryType O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não

Opções de Mapeamento de Campos do Índice Elasticsearch

Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.

Nome Tipo Descrição Obrigatório Predefinido
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não
campos vetoriais matriz Os nomes dos campos que representam dados vetoriais. Não

TipoDeConsultaElasticsearch

O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Propriedade Valor
Descrição O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Tipo cadeia (de caracteres)
Valores simple
vector

ConfiguraçãoDaExtensãoDeChatMongoDB

Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
parâmetros mongoDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

mongoDBChatExtensionParameters

Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB.

Nome Tipo Descrição Obrigatório Predefinido
permitir_resultado_parcial Booleano Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não Falso
nome_do_app cadeia (de caracteres) O nome do aplicativo Mongo DB. Sim
autenticação opçõesDeAutenticaçãoComNomeDeUtilizadorESenhaNoSeuSistemaDeDados As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. Sim
nome_da_colecção cadeia (de caracteres) O nome da Coleção Mongo DB. Sim
nome_da_base_de_dados cadeia (de caracteres) O nome do banco de dados Mongo DB. Sim
incorporar_dependência onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim
ponto final cadeia (de caracteres) O nome do ponto de extremidade do cluster Mongo DB. Sim
mapeamento_de_campos mongoDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. Sim
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
incluir_contextos matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não
nome_do_índice cadeia (de caracteres) O nome do índice Mongo DB. Sim
consultas_de_pesquisa_máximas número inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não

OpçõesDeMapeamentoDeCamposMongoDB

Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.

Nome Tipo Descrição Obrigatório Predefinido
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não
campos vetoriais matriz Os nomes dos campos que representam dados vetoriais. Sim

ConfiguraçãoDaExtensãoPineconeChat

Uma representação específica de opções configuráveis para Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
parâmetros pineconeChatExtensionParameters Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone. Não
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

pineconeChatExtensionParameters

Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone.

Nome Tipo Descrição Obrigatório Predefinido
permitir_resultado_parcial Booleano Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não Falso
autenticação onYourDataOpçõesDeAutenticaçãoDeChaveApi As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. Sim
incorporar_dependência onSeuNomeDeInstalaçãoFonteDeVetorização Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo interno de incorporação no mesmo recurso do Azure OpenAI. Sim
ambiente cadeia (de caracteres) O nome do ambiente de Pinecone. Sim
mapeamento_de_campos pineconeFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. Sim
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
incluir_contextos matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não
nome_do_índice cadeia (de caracteres) O nome do índice do banco de dados Pinecone. Sim
consultas_de_pesquisa_máximas número inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não

opçõesDeMapeamentoDeCamposDoPinhao

Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.

Nome Tipo Descrição Obrigatório Predefinido
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não

opçõesDeAutenticaçãoDeDados

As opções de autenticação para o Azure OpenAI On Your Data.

Discriminador para onYourDataAuthenticationOptions

Este componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Esquema
api_key onYourDataOpçõesDeAutenticaçãoDeChaveApi
connection_string nasOpçõesDeAutenticaçãoDaStringDeConexãoDeDados
key_and_key_id nasOpçõesDeAutenticaçãoDeSuaChaveEDoIdChave
encoded_api_key OpçõesDeAutenticaçãoDeChaveAPIcodificadaOnYourData
access_token emSeusDadosTokenDeAcessoOpçõesDeAutenticação
system_assigned_managed_identity OpçõesDeAutenticaçãoDaIdentidadeGeridaAtribuídaPeloSeuSistemaDeDados
user_assigned_managed_identity opçõesDeAutenticaçãoDeIdentidadeGerenciadaAtribuídaPeloUsuárioTooDados
username_and_password opçõesDeAutenticaçãoComNomeDeUtilizadorESenhaNoSeuSistemaDeDados
Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onYourDataContextProperty

A propriedade context.

Propriedade Valor
Descrição A propriedade context.
Tipo cadeia (de caracteres)
Valores citations
intent
all_retrieved_documents

TipoDeAutenticaçãoDosSeusDados

Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Propriedade Valor
Descrição Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
Tipo cadeia (de caracteres)
Valores api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

sobreOpçõesDeAutenticaçãoChaveAPIDosSeusDados

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.

Nome Tipo Descrição Obrigatório Predefinido
chave cadeia (de caracteres) A chave de API a ser usada para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

opçõesDeAutenticaçãoNaSuaStringDeConexãoDeDados

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Nome Tipo Descrição Obrigatório Predefinido
string de conexão cadeia (de caracteres) A cadeia de conexão a ser usada para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

opçõesDeAutenticaçãoParaAChaveDeDadosEIdDaChave

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave Elasticsearch e um par de ID de chave.

Nome Tipo Descrição Obrigatório Predefinido
chave cadeia (de caracteres) A chave Elasticsearch a ser usada para autenticação. Não
key_id cadeia (de caracteres) O ID da chave do Elasticsearch a ser usado para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onOsSeusDadosCodificadosOpçõesDeAutenticaçãoDaApiKey

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API codificada do Elasticsearch.

Nome Tipo Descrição Obrigatório Predefinido
chave_api_codificada cadeia (de caracteres) A chave de API codificada do Elasticsearch a ser usada para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onYourDataAccessTokenAuthenticationOptions (Opções de Autenticação de Token de Acesso ao SuaDados)

As opções de autenticação para o Azure OpenAI On Your Data ao usar o token de acesso.

Nome Tipo Descrição Obrigatório Predefinido
token de acesso cadeia (de caracteres) O token de acesso a ser usado para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

Opções de Autenticação da Identidade Gerida Atribuída ao Seu Sistema

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.

Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

OpçõesDeAutenticaçãoDeIdentidadeGeridaAtribuídaPelaSuaDadosUtilizador

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Nome Tipo Descrição Obrigatório Predefinido
ID de recurso de identidade gerida cadeia (de caracteres) A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

opçõesDeAutenticaçãoComNomeDeUtilizadorESenhaNoSeuData

As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.

Nome Tipo Descrição Obrigatório Predefinido
palavra-passe cadeia (de caracteres) A senha. para usar para autenticação. Não
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
nome de utilizador cadeia (de caracteres) O nome de usuário a ser usado para autenticação. Não

emSeuFonteDeVectorizaçãoDosDados

Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.

Este componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Esquema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onSeusDadosIntegradosFonteDeVetorização
model_id naSuaOrigemDeVetorizaçãoIdDoModeloDeDados
Nome Tipo Descrição Obrigatório Predefinido
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. Sim

TipoFonteDeVetorizacaoDosSeusDados

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.

Propriedade Valor
Descrição Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.
Tipo cadeia (de caracteres)
Valores endpoint
deployment_name
integrated
model_id

naFonteDeVetorizaçãoDoSeuEndpointDeDados

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, com base numa chamada pública de endpoint do Azure OpenAI para embeddings.

Nome Tipo Descrição Obrigatório Predefinido
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Não
dimensões número inteiro O número de dimensões que as incorporações devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. Não
ponto final cadeia (de caracteres) Especifica a URL do ponto de extremidade do recurso a partir da qual as incorporações devem ser recuperadas. Deve ser no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. Não
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. Sim

onYourDataDeploymentNameVectorizationSource (assuming it should remain untranslated due to its potential status as a specific and recognizable technical term or name)

Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia num nome de implementação de um modelo de embeddings interno no mesmo recurso Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
nome_da_implementação cadeia (de caracteres) Especifica o nome da implantação do modelo a utilizar para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. Não
dimensões número inteiro O número de dimensões que as incorporações devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. Não
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. Sim

fonteIntegradaDeVetorizaçãoDoSeuData

Representa o vetorizador integrado definido no recurso de pesquisa.

Nome Tipo Descrição Obrigatório Predefinido
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. Sim

onYourDataModelIdVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma ID de modelo de serviço de pesquisa. Atualmente suportado apenas pelo Elasticsearch®.

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_modelo cadeia (de caracteres) Especifica o ID do modelo a ser usado para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. Não
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. Sim

azureChatExtensionsContextoMensagem

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

Nome Tipo Descrição Obrigatório Predefinido
todos_os_documentos_recuperados matriz Todos os documentos recuperados. Não
Citações matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. Não
intenção cadeia (de caracteres) A intenção detetada a partir do histórico de conversas, usada para avançar para a próxima rodada, mantendo o contexto. Não

citação

informações de citação para uma mensagem de resposta de conclusão do chat.

Nome Tipo Descrição Obrigatório Predefinido
Identificador_de_fragmento cadeia (de caracteres) O ID do segmento da citação. Não
conteúdo cadeia (de caracteres) O conteúdo da citação. Sim
caminho do arquivo cadeia (de caracteres) O caminho do arquivo da citação. Não
pontuação_reordenação número A pontuação de reclassificação do documento recuperado. Não
título cadeia (de caracteres) O título da citação. Não
URL cadeia (de caracteres) O URL da citação. Não

recuperadoDocumento

O documento recuperado.

Nome Tipo Descrição Obrigatório Predefinido
Identificador_de_fragmento cadeia (de caracteres) O ID do segmento da citação. Não
conteúdo cadeia (de caracteres) O conteúdo da citação. Sim
índice_fonte_de_dados número inteiro O índice da fonte de dados. Não
caminho do arquivo cadeia (de caracteres) O caminho do arquivo da citação. Não
razão do filtro filterReason O motivo de filtragem do documento recuperado. Não
pontuação_de_pesquisa_original número A pontuação de pesquisa original do documento recuperado. Não
pontuação_reordenação número A pontuação de reclassificação do documento recuperado. Não
consultas de pesquisa matriz As consultas de pesquisa usadas para recuperar o documento. Não
título cadeia (de caracteres) O título da citação. Não
URL cadeia (de caracteres) O URL da citação. Não

motivo do filtro

O motivo de filtragem do documento recuperado.

Propriedade Valor
Descrição O motivo de filtragem do documento recuperado.
Tipo cadeia (de caracteres)
Valores score
rerank

Chamada da Ferramenta de Mensagem de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
função objecto A função que o modelo chamou. Sim
└─ argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Não
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Sim
tipo toolCallType O tipo de chamada de ferramenta, neste caso function. Sim

TipoDeChamadaDeFerramenta

O tipo de chamada de ferramenta, neste caso function.

Propriedade Valor
Descrição O tipo de chamada de ferramenta, neste caso function.
Tipo cadeia (de caracteres)
Valores function

Ferramenta de Mensagem de Pedido de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Não
tool_call_id cadeia (de caracteres) Chamada de ferramenta à qual esta mensagem está respondendo. Não

funçãoDeMensagemDePedidoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Não
nome cadeia (de caracteres) O conteúdo da mensagem. Não
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: function
Não

createChatCompletionResponse

Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Obrigatório Predefinido
escolhas matriz Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. Sim
criado número inteiro O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. Sim
ID cadeia (de caracteres) Um identificador exclusivo para a conclusão do chat. Sim
modelo cadeia (de caracteres) O modelo usado para a conclusão do chat. Sim
objecto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Sim
filtrar_resultados_prompt promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. Não
impressão_digital_do_sistema cadeia (de caracteres) Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.
Não
utilização conclusãoUso Estatísticas de utilização do pedido de preenchimento. Não

createChatCompletionStreamResponse

Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Obrigatório Predefinido
escolhas matriz Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1.
Sim
criado número inteiro O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. Sim
ID cadeia (de caracteres) Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. Sim
modelo cadeia (de caracteres) O modelo para gerar a conclusão. Sim
objecto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Sim
impressão_digital_do_sistema cadeia (de caracteres) Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.
Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.
Não

chatCompletionStreamResponseDelta

Um delta de conclusão de chat gerado por respostas de modelo transmitidas.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia (de caracteres) O conteúdo da mensagem de bloco. Não
function_call objecto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
└─ argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Não
recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Não
função enumeração O papel do autor desta mensagem.
Valores possíveis: system, user, assistant, tool
Não
tool_calls matriz Não

FragmentoChamadaFerramentaMensagemConclusãoChat

Nome Tipo Descrição Obrigatório Predefinido
função objecto Não
└─ argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Não
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Não
indexar número inteiro Sim
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: function
Não

opçõesDeTransmissãoDeConclusãoDeChat

Opções de resposta em streaming. Defina isso apenas quando definir stream: true.

Nome Tipo Descrição Obrigatório Predefinido
incluir_uso Booleano Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo.
Não

chatCompletionChoiceLogProbs

Registre informações de probabilidade para a escolha.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo matriz Uma lista de tokens de conteúdo de mensagem com informações de probabilidade logarítmica. Sim
recusa matriz Uma lista de tokens de recusa de mensagens com informações de probabilidade em logarítmico. Não

chatCompletionTokenLogprob

Nome Tipo Descrição Obrigatório Predefinido
Bytes matriz Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. Sim
Logprob número A probabilidade logarítmica deste token. Sim
token cadeia (de caracteres) O token. Sim
top_logprobs matriz Lista dos tokens mais prováveis e o log de probabilidade, nesta posição específica de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. Sim

MensagemDeRespostaDeConclusãoDeChat (chatCompletionResponseMessage)

Uma mensagem de conclusão do chat gerada pelo modelo.

Nome Tipo Descrição Obrigatório Predefinido
áudio objecto Se a modalidade de saída de áudio for solicitada, este objeto contém dados sobre a resposta de áudio do modelo. Não
└─ dados cadeia (de caracteres) Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação.
Não
└─ expira_em número inteiro O carimbo de data/hora Unix (em segundos) para quando esta resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos.
Não
└─ ID cadeia (de caracteres) Identificador exclusivo para esta resposta de áudio. Não
└─ Transcrição cadeia (de caracteres) Transcrição do áudio gerado pelo modelo. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente. Não
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Sim
função RoleDaMensagemDeConclusãoDoChat O papel do autor da mensagem de resposta. Sim
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não

funçãoMensagemRespostaConclusãoChat

O papel do autor da mensagem de resposta.

Propriedade Valor
Descrição O papel do autor da mensagem de resposta.
Tipo cadeia (de caracteres)
Valores assistant

opçãoDeEscolhaDeFerramentaDeConclusãoDeChat

Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes.

Este componente pode ser um dos seguintes:

escolhaFerramentaNomeadaDeConclusaoChat

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Obrigatório Predefinido
função objecto Sim
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Não
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: function
Sim

ParallelToolCalls

Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.

Nenhuma propriedade definida para este componente.

PrevisãoConteúdo

Conteúdo de saída estático previsto, como o conteúdo de um arquivo de texto que está sendo regenerado.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornada muito mais rapidamente. Sim
tipo enumeração O tipo de conteúdo previsto que você deseja fornecer. Este tipo é atualmente sempre content.
Valores possíveis: content
Sim

chamadasDeFerramentaParaMensagemDeConclusãoDeChat

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para este componente.

Modalidades de Conclusão de Chat

Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para este componente.

Chamada de função de conclusão de chat

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Nome Tipo Descrição Obrigatório Predefinido
Argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Sim
nome cadeia (de caracteres) O nome da função a ser chamada. Sim

conclusãoUso

Estatísticas de utilização do pedido de preenchimento.

Nome Tipo Descrição Obrigatório Predefinido
tokens_de_conclusão número inteiro Número de tokens na conclusão gerada. Sim
detalhes_de_tokens_de_conclusão objecto Distribuição dos tokens usados numa conclusão. Não
└─ tokens_de_previsão_aceites número inteiro Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. Não
└─ fichas_de_áudio número inteiro Tokens de entrada de áudio gerados pelo modelo. Não
└─ tokens de raciocínio número inteiro Tokens gerados pelo modelo de raciocínio. Não
└─ tokens_de_previsão_rejeitados número inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, como os tokens de raciocínio, esses tokens ainda são contados nos tokens de conclusão total para fins de faturamento, saída e limites de janela de contexto. Não
prompt_tokens número inteiro Número de tokens no prompt. Sim
Detalhes_dos_tokens_de_prompt objecto Detalhes dos tokens de prompt. Não
└─ fichas_de_áudio número inteiro Tokens de entrada de áudio presentes no prompt. Não
└─ tokens em cache número inteiro O número de tokens de prompt armazenados em cache. Não
total de tokens número inteiro Número total de tokens usados na solicitação (prompt + conclusão). Sim

Ferramenta de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
função FunctionObject Sim
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: function
Sim

Parâmetros de Função

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para este componente.

FunctionObject

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
nome cadeia (de caracteres) O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
parâmetros FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não
rigoroso Booleano Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. Não Falso

FormatoDoTextoDeResposta

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de formato de resposta que está sendo definido: text
Valores possíveis: text
Sim

FormatoDeRespostaObjetoJson

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de formato de resposta que está sendo definido: json_object
Valores possíveis: json_object
Sim

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

Nenhuma propriedade definida para este componente.

FormatoDeRespostaEsquemaJson

Nome Tipo Descrição Obrigatório Predefinido
esquema_json objecto Sim
└─ Descrição cadeia (de caracteres) Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato. Não
└─ nome cadeia (de caracteres) O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Não
└─ esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Não
└─ rigoroso Booleano Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. Não Falso
tipo enumeração O tipo de formato de resposta que está sendo definido: json_schema
Valores possíveis: json_schema
Sim

OpçãoComumDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
motivo_de_finalização cadeia (de caracteres) Não
indexar número inteiro Não

criarPedidoDeTradução

Pedido de tradução.

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O arquivo de áudio a ser traduzido. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

Resposta de Áudio

Resposta de tradução ou transcrição quando response_format foi json

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) Texto traduzido ou transcrito. Sim

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Nome Tipo Descrição Obrigatório Predefinido
Duração número Duração. Não
linguagem cadeia (de caracteres) Idioma. Não
segmentos matriz Não
tarefa cadeia (de caracteres) Tipo de tarefa de áudio. Não
enviar SMS cadeia (de caracteres) Texto traduzido ou transcrito. Sim
Palavras matriz Não

formatoDeRespostaDeÁudio

Define o formato da saída.

Propriedade Valor
Descrição Define o formato da saída.
Tipo cadeia (de caracteres)
Valores json
text
srt
verbose_json
vtt

criarPedidoDeTranscrição

Pedido de transcrição.

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O objeto do arquivo de áudio a ser transcrito. Sim
linguagem cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
granularidade_de_timestamp[] matriz As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word, ou segment. Nota: Não há latência adicional nos carimbos de data/hora para segmentos, mas a geração de carimbos de data/hora para palavras resulta em latência adicional. Não ['segmento']

segmento de áudio

Segmento de transcrição ou tradução.

Nome Tipo Descrição Obrigatório Predefinido
avg_logprob número Probabilidade média de log. Não
relação de compressão número Taxa de compressão. Não
fim número Compensação final do segmento. Não
ID número inteiro Identificador de segmento. Não
probabilidade_de_ausência_de_fala número Probabilidade de 'não falar'. Não
procurar número Deslocamento do segmento. Não
Início número Compensação de início de segmento. Não
temperatura número Temperatura. Não
enviar SMS cadeia (de caracteres) Segmentar o texto. Não
fichas matriz Fichas do texto. Não

audioWord

Transcrição ou tradução de palavras.

Nome Tipo Descrição Obrigatório Predefinido
fim número Compensação final do Word. Não
Início número Deslocamento de início do Word. Não
word cadeia (de caracteres) Palavra Não

criarPedidoDeDiscurso

Pedido de voz.

Nome Tipo Descrição Obrigatório Predefinido
dados introduzidos cadeia (de caracteres) O texto para sintetizar áudio. O comprimento máximo é de 4096 caracteres. Sim
formato_de_resposta enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, , wav, pcm
Não
velocidade número A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é o padrão. Não 1.0
voz enumeração A voz a ser usada para síntese de fala.
Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer
Sim

qualidade de imagem

A qualidade da imagem que será gerada.

Propriedade Valor
Descrição A qualidade da imagem que será gerada.
Tipo cadeia (de caracteres)
Predefinição automóvel
Valores auto
high
medium
low
hd
standard

imagesResponseFormat

O formato em que as imagens geradas são retornadas.

Propriedade Valor
Descrição O formato em que as imagens geradas são retornadas.
Tipo cadeia (de caracteres)
Predefinição URL
Valores url
b64_json

formatoDeSaídaDeImagens

O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1.

Propriedade Valor
Descrição O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1.
Tipo cadeia (de caracteres)
Predefinição PNG
Valores png
jpeg

tamanho da imagem

O tamanho das imagens geradas.

Propriedade Valor
Descrição O tamanho das imagens geradas.
Tipo cadeia (de caracteres)
Predefinição automóvel
Valores auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

estilo de imagem

O estilo das imagens geradas. Apenas suportado para dall-e-3.

Propriedade Valor
Descrição O estilo das imagens geradas. Apenas suportado para dall-e-3.
Tipo cadeia (de caracteres)
Predefinição vívido
Valores vivid
natural

imagem de fundo

Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1.

Propriedade Valor
Descrição Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1.
Tipo cadeia (de caracteres)
Predefinição automóvel
Valores transparent
opaque
auto

pedidoDeGeraçõesDeImagem

Nome Tipo Descrição Obrigatório Predefinido
em segundo plano imagem fundo Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1. Não automóvel
n número inteiro O número de imagens a gerar. Para DALL-E-3, é suportado apenas n=1. Não 1
compressão_de_saída número inteiro O nível de compressão (0-100%) para as imagens geradas. Este parâmetro só é suportado para gpt-image-1 com o formato de saída jpeg. Não 100
formato_de_saida imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1. Não PNG
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para gpt-image-1 e 4000 caracteres para dall-e-3 Sim
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não automóvel
formato_de_resposta imagesResponseFormat O formato em que as imagens geradas são retornadas. Não URL
tamanho imageSize O tamanho das imagens geradas. Não automóvel
estilo imageStyle O estilo das imagens geradas. Apenas suportado para dall-e-3. Não vívido
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

pedidoDeEdiçãoDeImagem

Nome Tipo Descrição Obrigatório Predefinido
imagem cadeia de caracteres ou matriz A(s) imagem(ns) a editar. Deve ser um arquivo de imagem suportado ou uma matriz de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. Sim
máscara cadeia (de caracteres) Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões que a imagem. Não
n número inteiro O número de imagens a gerar. Não 1
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. Sim
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não automóvel
formato_de_resposta imagesResponseFormat O formato em que as imagens geradas são retornadas. Não URL
tamanho imageSize O tamanho das imagens geradas. Não automóvel
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não

generateImagesResponse

Nome Tipo Descrição Obrigatório Predefinido
criado número inteiro O carimbo de data/hora Unix quando a operação foi criada. Sim
dados matriz Os dados de resultado da operação, se bem-sucedida Sim
utilização imageGenerationsUsage Representa detalhes de uso de token para solicitações de geração de imagem. Apenas para gpt-image-1. Não

resultadoImagem

A URL da imagem ou a imagem codificada, se obtida com sucesso, e um erro caso contrário.

Nome Tipo Descrição Obrigatório Predefinido
b64_json cadeia (de caracteres) A imagem codificada base64 Não
resultados_do_filtro_de_conteúdo dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. Não
filtrar_resultados_prompt dalleFilterResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não
Proposta de Melhorias: - Certificar-se de que as frases e termos são traduzidos corretamente para refletir o mesmo significado do texto de origem. - Adaptar quaisquer termos em inglês que possam ser traduzidos naturalmente para português, preservando o seu significado. - Corrigir quaisquer questões gramaticais para aumentar a fluência e a legibilidade em português. - Usar a estrutura de frases em português natural para que a tradução soe nativa. - Verificar o uso apropriado de pontuação e registro para o português. cadeia (de caracteres) O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. Não
URL cadeia (de caracteres) O url da imagem. Não

usoDeGeraçõesDeImagens

Representa detalhes de uso de token para solicitações de geração de imagem. Apenas para gpt-image-1.

Nome Tipo Descrição Obrigatório Predefinido
tokens_de_entrada número inteiro O número de tokens de entrada. Não
detalhes_de_tokens_de_entrada objecto Um detalhamento detalhado dos tokens de entrada. Não
└─ image_tokens número inteiro O número de tokens de imagem. Não
└─ text_tokens número inteiro O número de tokens de texto. Não
tokens de saída número inteiro O número de tokens de saída. Não
total de tokens número inteiro O número total de tokens usados. Não

linha

Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.

Nome Tipo Descrição Obrigatório Predefinido
vãos matriz Uma matriz de extensões que representam objetos detetados e suas informações de caixa delimitadora. Sim
enviar SMS cadeia (de caracteres) Sim

Extensão

Um objeto span que representa um objeto detetado e suas informações de caixa delimitadora.

Nome Tipo Descrição Obrigatório Predefinido
comprimento número inteiro O comprimento da extensão em caracteres, medido em pontos de código Unicode. Sim
Compensação número inteiro O deslocamento de caracteres dentro do texto onde a extensão começa. Esse deslocamento é definido como a posição do primeiro caractere da extensão, contando desde o início do texto como pontos de código Unicode. Sim
polígono matriz Uma matriz de objetos que representa pontos no polígono que encerra o objeto detetado. Sim
enviar SMS cadeia (de caracteres) O conteúdo de texto da extensão que representa o objeto detetado. Sim

execuçãoUtilizaçãoCompleta

Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queued, etc.).

Nome Tipo Descrição Obrigatório Predefinido
tokens_de_conclusão número inteiro Número de tokens de conclusão usados ao longo da execução. Sim
prompt_tokens número inteiro Número de tokens de prompt usados ao longo da execução. Sim
total de tokens número inteiro Número total de tokens usados (prompt + conclusão). Sim

execuçãoUsoConclusãoEtapa

Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.

Nome Tipo Descrição Obrigatório Predefinido
tokens_de_conclusão número inteiro Número de tokens de conclusão usados ao longo da etapa de execução. Sim
prompt_tokens número inteiro Número de tokens de prompt usados ao longo da etapa de execução. Sim
total de tokens número inteiro Número total de tokens usados (prompt + conclusão). Sim

assistentesApiResponseFormatOption

Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.

Este componente pode ser um dos seguintes:

assistentesApiResponseFormat

Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools tiver permissão para ser passado para a Execução. Se text o modelo pode retornar texto ou qualquer valor necessário.

Nome Tipo Descrição Obrigatório Predefinido
tipo cadeia (de caracteres) Deve ser um dos text ou json_object. Não enviar SMS

tipo Enum: AssistantsApiResponseFormat

Valor Descrição
enviar SMS
objeto JSON

Objeto do assistente

Representa um assistant que pode chamar o modelo e usar ferramentas.

Nome Tipo Descrição Obrigatório Predefinido
criado_em número inteiro O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. Sim
descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Sim
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
Instruções cadeia (de caracteres) As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Sim
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
modelo cadeia (de caracteres) ID do modelo a utilizar. Sim
nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre assistant. Sim
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function.
Sim []
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1

objeto Enum: AssistantObjectType

Valor Descrição
assistente O tipo de objeto, que é sempre assistente

criarPedidoAssistente

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) Sim
nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
└─ armazenamento_de_vetores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1

modificarAssistantRequest

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
Instruções cadeia (de caracteres) As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) Não
nome cadeia (de caracteres) O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1

eliminarRespostaDoAssistente

Nome Tipo Descrição Obrigatório Predefinido
Suprimido Booleano Sim
ID cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteAssistantResponseState

Valor Descrição
assistente.excluído

listAssistantsResposta

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

assistantToolsCode

Nome Tipo Descrição Obrigatório Predefinido
tipo cadeia (de caracteres) O tipo de ferramenta que está sendo definido: code_interpreter Sim

tipo Enum: assistantToolsCodeType

Valor Descrição
interpretador de código

Ferramentas de Pesquisa de Arquivos do Assistente

Nome Tipo Descrição Obrigatório Predefinido
pesquisa de ficheiros objecto Substitui a ferramenta de pesquisa de arquivos. Não
└─ número_máx_resultados número inteiro O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve situar-se entre 1 e 50, inclusive.

Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados.
Não
tipo cadeia (de caracteres) O tipo de ferramenta que está sendo definido: file_search Sim

tipo Enum: assistantToolsFileSearchType

Valor Descrição
pesquisa de ficheiros

assistantToolsFileSearchTypeOnly

Nome Tipo Descrição Obrigatório Predefinido
tipo cadeia (de caracteres) O tipo de ferramenta que está sendo definido: file_search Sim

tipo Enum: assistantToolsFileSearchType

Valor Descrição
pesquisa de ficheiros

funçãoDeFerramentasDoAssistente

Nome Tipo Descrição Obrigatório Predefinido
função objecto A definição da função. Sim
└─ Descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Não
└─ parâmetros ParâmetrosDaFunçãoDeConclusãoDoChat Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato. Não
tipo cadeia (de caracteres) O tipo de ferramenta que está sendo definido: function Sim

tipo Enum: assistantToolsFunction

Valor Descrição
função

truncationObject

Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.

Nome Tipo Descrição Obrigatório Predefinido
últimas_mensagens número inteiro O número de mensagens mais recentes do thread ao construir o contexto para a execução. Não
tipo cadeia (de caracteres) A estratégia de truncamento a ser usada para o thread. A predefinição é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens. Sim

type Enum: Tipo de Truncamento

Valor Descrição
automóvel
últimas_mensagens

assistentesApiToolChoiceOption

Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.

Este componente pode ser um dos seguintes:

assistentesNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.

Nome Tipo Descrição Obrigatório Predefinido
função objecto Não
└─ nome cadeia (de caracteres) O nome da função a ser chamada. Não
tipo cadeia (de caracteres) O tipo da ferramenta. Se type for function, o nome da função deve ser definido Sim

tipo Enum: AssistantsNamedToolChoiceType

Valor Descrição
função
interpretador de código
pesquisa de ficheiros

runObject

Representa uma execução executada em um threads.

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_assistente cadeia (de caracteres) O ID do assistente usado para a execução desta execução. Sim
cancelado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução foi cancelada. Sim
concluído_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. Sim
criado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução foi criada. Sim
expira_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. Sim
falhou_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. Sim
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
detalhes incompletos objecto Detalhes sobre o motivo pelo qual a execução está incompleta. Será null se a execução não estiver incompleta. Sim
└─ Justificação cadeia (de caracteres) A razão pela qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. Não
Instruções cadeia (de caracteres) As instruções que o assistente usou para esta execução. Sim
último_erro objecto O último erro associado a esta execução. Será null se não houver erros. Sim
└─ código cadeia (de caracteres) Um dos server_error ou rate_limit_exceeded. Não
└─ mensagem cadeia (de caracteres) Uma descrição do erro legível por humanos. Não
tokens_máximos_de_conclusão número inteiro O número máximo de tokens de conclusão especificado para ter sido usado ao longo da execução.
Sim
max_prompt_tokens (número máximo de tokens de aviso) número inteiro O número máximo de tokens de prompt especificado para ter sido usado ao longo da execução.
Sim
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
modelo cadeia (de caracteres) O modelo que o assistente usou para esta execução. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.run. Sim
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
ação obrigatória objecto Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. Sim
submeter_saídas_de_ferramenta objecto Detalhes sobre as saídas da ferramenta necessárias para que esta execução continue. Não
└─ tool_calls matriz Uma lista das chamadas de ferramentas relevantes. Não
└─ tipo enumeração Por enquanto, isso é sempre submit_tool_outputs.
Valores possíveis: submit_tool_outputs
Não
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Sim
iniciado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. Sim
estado cadeia (de caracteres) O status da execução, que pode ser , , , , queued, in_progressrequires_action, cancelling, ou cancelled. failedcompletedexpired Sim
temperatura número A temperatura de amostragem utilizada para este ensaio. Se não estiver definido, o padrão será 1. Não
ID de thread cadeia (de caracteres) A ID dos threads que foram executados como parte desta execução. Sim
escolha_de_ferramenta assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Sim
Ferramentas matriz A lista de ferramentas que o assistente usou para esta execução. Sim []
top_p número O valor de amostragem do núcleo utilizado para esta corrida. Se não estiver definido, o padrão será 1. Não
estratégia de truncamento truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Sim
utilização runCompletionUsage Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queued, etc.). Sim

objeto Enum: runObjectType

Valor Descrição
thread.run O tipo de objeto run que é sempre thread.run

status Enum: EstadoDoObjetoEmExecução

Valor Descrição
em fila O estado em fila
em andamento O Estado in_progress
requer_ação O Estado required_action
Cancelamento O estado de cancelamento
cancelado O estado cancelado
com falhas O estado falhado
concluída O estado concluído
expirou O estado expirado

criarPedidoDeExecução

Nome Tipo Descrição Obrigatório Predefinido
instruções adicionais cadeia (de caracteres) Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. Não
mensagens_adicionais matriz Adiciona mensagens adicionais ao thread antes de criar a execução. Não
identificador_do_assistente cadeia (de caracteres) A ID do assistente a ser usado para executar essa execução. Sim
Instruções cadeia (de caracteres) Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
tokens_máximos_de_conclusão número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
max_prompt_tokens (número máximo de tokens de aviso) número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
fluxo Booleano Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
escolha_de_ferramenta assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
Ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
estratégia de truncamento truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não

listRunsResponse

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

modificarPedidoDeExecução

Nome Tipo Descrição Obrigatório Predefinido
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

solicitaçãoDeExecuçãoResultadosDaFerramenta

Nome Tipo Descrição Obrigatório Predefinido
fluxo Booleano Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
saídas_da_ferramenta matriz Uma lista de ferramentas para as quais os resultados estão sendo enviados. Sim

runToolCallObject

Objetos de chamada de ferramenta

Nome Tipo Descrição Obrigatório Predefinido
função objecto A definição da função. Sim
└─ argumentos cadeia (de caracteres) Os argumentos que o modelo espera que você passe para a função. Não
└─ nome cadeia (de caracteres) O nome da função. Não
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Esse ID deve ser referenciado quando você envia as saídas da ferramenta usando as saídas da ferramenta de envio para executar o endpointendpoint. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. Sim

tipo Enum: RunToolCallObjectType

Valor Descrição
função

criarThreadEExecutarPedido

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_assistente cadeia (de caracteres) A ID do assistente a ser usado para executar essa execução. Sim
Instruções cadeia (de caracteres) Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
tokens_máximos_de_conclusão número inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
max_prompt_tokens (número máximo de tokens de aviso) número inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações.
Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
modelo cadeia (de caracteres) A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
formato_de_resposta AssistantsApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
fluxo Booleano Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
opções_de_transmissão chatCompletionStreamOptions Opções de resposta em streaming. Defina isso apenas quando definir stream: true.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
conversa createThreadRequest Não
escolha_de_ferramenta assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
recursos_ferramenta objecto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
Não
Ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
estratégia de truncamento truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não

threadObject

Representa um thread que contém mensagens.

Nome Tipo Descrição Obrigatório Predefinido
criado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando o thread foi criado. Sim
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread. Sim
recursos_ferramenta objecto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Sim
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não

objeto Enum: ThreadObjectType

Valor Descrição
conversa O tipo de objeto de thread que é sempre thread

Pedido de Criação de Thread

Nome Tipo Descrição Obrigatório Predefinido
mensagens matriz Uma lista de mensagens para iniciar o thread. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
recursos_ferramenta objecto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não
└─ armazenamento_de_vetores matriz Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não

modificarThreadRequest

Nome Tipo Descrição Obrigatório Predefinido
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
recursos_ferramenta objecto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
└─ interpretador_de_codigo objecto Não
└─ identificadores_de_ficheiro matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
Não []
└─ pesquisa_arquivo objecto Não
└─ vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
Não

deleteThreadResponse

Nome Tipo Descrição Obrigatório Predefinido
Suprimido Booleano Sim
ID cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteThreadResponseObjectState

Valor Descrição
thread.excluído O estado do objeto de resposta de thread de exclusão que é thread.deleted

listThreadsResponse

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objetoMensagem

Representa uma mensagem dentro de um thread.

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_assistente cadeia (de caracteres) Se aplicável, o ID do assistente autor desta mensagem. Sim
Anexos matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. Sim
concluído_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi concluída. Sim
conteúdo matriz O conteúdo da mensagem em matriz de texto e/ou imagens. Sim
criado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi criada. Sim
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
incomplete_at número inteiro O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi marcada como incompleta. Sim
detalhes incompletos objecto Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. Sim
└─ Justificação cadeia (de caracteres) O motivo pelo qual a mensagem está incompleta. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.message. Sim
função cadeia (de caracteres) A entidade que produziu a mensagem. Um dos user ou assistant. Sim
identificador_de_execução cadeia (de caracteres) Se aplicável, a ID da execução associada à criação desta mensagem. Sim
estado cadeia (de caracteres) O status da mensagem, que pode ser , in_progressincompleteou completed. Sim
ID de thread cadeia (de caracteres) O ID de threads ao qual esta mensagem pertence. Sim

objeto Enum: MessageObjectType

Valor Descrição
thread.mensagem O tipo de objeto de mensagem que é thread.message

Enumerador de status: MessageObjectStatus

Valor Descrição
em andamento
incompleto
concluída

função Enum: MessageObjectRole

Valor Descrição
utilizador
assistente

messageDeltaObject

Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.

Nome Tipo Descrição Obrigatório Predefinido
delta objecto O delta que contém os campos que foram alterados na mensagem. Sim
└─ conteúdo matriz O conteúdo da mensagem em matriz de texto e/ou imagens. Não
└─ função cadeia (de caracteres) A entidade que produziu a mensagem. Um dos user ou assistant. Não
ID cadeia (de caracteres) O identificador da mensagem, que pode ser referenciado em pontos de extremidade da API. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.message.delta. Sim

objeto Enum: MessageDeltaObjectType

Valor Descrição
tópico.mensagem.delta

criarPedidoDeMensagem

Nome Tipo Descrição Obrigatório Predefinido
Anexos matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
função cadeia (de caracteres) A função da entidade que está criando a mensagem. Os valores permitidos incluem:
- user: Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Sim

Enum da função: CreateMessageRequestRole

Valor Descrição
utilizador
assistente

modificarMessageRequest

Nome Tipo Descrição Obrigatório Predefinido
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

respostaEliminarMensagem

Nome Tipo Descrição Obrigatório Predefinido
Suprimido Booleano Sim
ID cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteMessageResponseObject

Valor Descrição
mensagem do tópico eliminada O estado do objeto de resposta de mensagem de exclusão

respostaListaDeMensagens

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

ObjetoFicheiroImagemConteúdoMensagem

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Nome Tipo Descrição Obrigatório Predefinido
ficheiro de imagem objecto Sim
└─ id_do_arquivo cadeia (de caracteres) O ID de arquivo da imagem no conteúdo da mensagem. Não
tipo cadeia (de caracteres) Sempre image_file. Sim

tipo Enum: MessageContentImageFileObjectType

Valor Descrição
ficheiro de imagem O tipo de arquivo de imagem de conteúdo da mensagem

objetoDeTextoDeConteúdoDaMensagem

O conteúdo de texto que faz parte de uma mensagem.

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS objecto Sim
└─ anotações matriz Não
└─ valor cadeia (de caracteres) Os dados que compõem o texto. Não
tipo cadeia (de caracteres) Sempre text. Sim

Tipo Enum: messageContentTextObjectType

Valor Descrição
enviar SMS O texto do conteúdo da mensagem Tipo de objeto

ConteúdoDaMensagemAnotaçõesDoTextoCitaçãoDoArquivoObjeto

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "recuperação" para pesquisar arquivos.

Nome Tipo Descrição Obrigatório Predefinido
índice_final número inteiro Sim
citação_de_ficheiro objecto Sim
└─ id_do_arquivo cadeia (de caracteres) O ID do arquivo específico do qual a citação é originada. Não
start_index número inteiro Sim
enviar SMS cadeia (de caracteres) O texto no conteúdo da mensagem que precisa ser substituído. Sim
tipo cadeia (de caracteres) Sempre file_citation. Sim

tipo Enum: FileCitationObjectType

Valor Descrição
citação_de_ficheiro O tipo de objeto de citação de arquivo

mensagemConteúdoTextoAnotaçõesCaminhoDoFicheiroObjeto

Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.

Nome Tipo Descrição Obrigatório Predefinido
índice_final número inteiro Sim
caminho_do_arquivo objecto Sim
└─ id_do_arquivo cadeia (de caracteres) A ID do arquivo que foi gerado. Não
start_index número inteiro Sim
enviar SMS cadeia (de caracteres) O texto no conteúdo da mensagem que precisa ser substituído. Sim
tipo cadeia (de caracteres) Sempre file_path. Sim

tipo Enum: FilePathObjectType

Valor Descrição
caminho_do_arquivo O tipo de objeto de caminho de arquivo

messageDeltaContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Nome Tipo Descrição Obrigatório Predefinido
ficheiro de imagem objecto Não
└─ id_do_arquivo cadeia (de caracteres) O ID de arquivo da imagem no conteúdo da mensagem. Não
indexar número inteiro O índice da parte de conteúdo na mensagem. Sim
tipo cadeia (de caracteres) Sempre image_file. Sim

Tipo Enum: MessageDeltaContentImageFileObjectType

Valor Descrição
ficheiro de imagem

messageDeltaContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Nome Tipo Descrição Obrigatório Predefinido
indexar número inteiro O índice da parte de conteúdo na mensagem. Sim
enviar SMS objecto Não
└─ anotações matriz Não
└─ valor cadeia (de caracteres) Os dados que compõem o texto. Não
tipo cadeia (de caracteres) Sempre text. Sim

tipo Enum: MessageDeltaContentTextObjectType

Valor Descrição
enviar SMS

mensagemDeltaConteúdoTextoAnotaçõesArquivoCitaçãoObjeto

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Criado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.

Nome Tipo Descrição Obrigatório Predefinido
índice_final número inteiro Não
citação_de_ficheiro objecto Não
└─ id_do_arquivo cadeia (de caracteres) O ID do arquivo específico do qual a citação é originada. Não
└─ citação cadeia (de caracteres) A citação específica no arquivo. Não
indexar número inteiro O índice da anotação na parte de conteúdo do texto. Sim
start_index número inteiro Não
enviar SMS cadeia (de caracteres) O texto no conteúdo da mensagem que precisa ser substituído. Não
tipo cadeia (de caracteres) Sempre file_citation. Sim

tipo Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType

Valor Descrição
citação_de_ficheiro

MessageDeltaContentTextAnnotationsFilePathObject

Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.

Nome Tipo Descrição Obrigatório Predefinido
índice_final número inteiro Não
caminho_do_arquivo objecto Não
└─ id_do_arquivo cadeia (de caracteres) A ID do arquivo que foi gerado. Não
indexar número inteiro O índice da anotação na parte de conteúdo do texto. Sim
start_index número inteiro Não
enviar SMS cadeia (de caracteres) O texto no conteúdo da mensagem que precisa ser substituído. Não
tipo cadeia (de caracteres) Sempre file_path. Sim

tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

Valor Descrição
caminho_do_arquivo

runStepObject

Representa uma etapa na execução de uma execução.

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_assistente cadeia (de caracteres) A ID do assistente associada à etapa de execução. Sim
cancelado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. Sim
concluído_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. Sim
criado_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi criada. Sim
expirou_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa é considerada expirada se a execução pai tiver expirado. Sim
falhou_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. Sim
ID cadeia (de caracteres) O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. Sim
último_erro objecto O último erro associado a esta etapa de execução. Será null se não houver erros. Sim
└─ código cadeia (de caracteres) Um dos server_error ou rate_limit_exceeded. Não
└─ mensagem cadeia (de caracteres) Uma descrição do erro legível por humanos. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre assistant.run.step. Sim
identificador_de_execução cadeia (de caracteres) A ID da execução da qual esta etapa de execução faz parte. Sim
estado cadeia (de caracteres) O status da execução, que pode ser in_progress, cancelled, failed, completed, ou expired. Sim
detalhes_do_passo runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Os detalhes da etapa de execução. Sim
ID de thread cadeia (de caracteres) O ID dos threads que foram executados. Sim
tipo cadeia (de caracteres) O tipo de etapa de execução, que pode ser ou message_creationtool_calls. Sim

objeto Enum: RunStepObjectType

Valor Descrição
assistente.run.step O tipo de objeto, que é sempre assistant.run.step

tipo Enum: RunStepObjectType

Valor Descrição
criação_de_mensagem A etapa de execução message_creation
tool_calls A etapa de execução tool_calls

Enum de estado: RunStepObjectStatus

Valor Descrição
em andamento O status de execução do in_progress
cancelado O status de execução cancelado
com falhas O status de execução cancelado
concluída O status de execução cancelado
expirou O status de execução cancelado

runStepDeltaObject

Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.

Nome Tipo Descrição Obrigatório Predefinido
delta objecto O delta que contém os campos que foram alterados na etapa de execução. Sim
└─ detalhes_do_passo runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Os detalhes da etapa de execução. Não
ID cadeia (de caracteres) O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre thread.run.step.delta. Sim

objeto Enum: RunStepDeltaObjectType

Valor Descrição
thread.run.step.delta

listRunStepsResponse

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

executarDetalhesDaEtapaMensagemObjetoCriacao

Detalhes da criação da mensagem pela etapa de execução.

Nome Tipo Descrição Obrigatório Predefinido
criação_de_mensagem objecto Sim
└─ id_da_mensagem cadeia (de caracteres) A ID da mensagem que foi criada por esta etapa de execução. Não
tipo cadeia (de caracteres) Sempre message_creation. Sim

tipo Enum: RunStepDetailsMessageCreationObjectType

Valor Descrição
criação_de_mensagem

If the context requires an explanation in pt-PT for readability and comprehension, one could consider translating each segment for clarity: "Executar Etapa Delta Detalhes da Mensagem Objeto de Criação" If it's meant to remain a variable name, no translation is needed.

Detalhes da criação da mensagem pela etapa de execução.

Nome Tipo Descrição Obrigatório Predefinido
criação_de_mensagem objecto Não
└─ id_da_mensagem cadeia (de caracteres) A ID da mensagem que foi criada por esta etapa de execução. Não
tipo cadeia (de caracteres) Sempre message_creation. Sim

digite Enum: RunStepDeltaStepDetailsMessageCreationObjectType

Valor Descrição
criação_de_mensagem

runStepDetailsToolCallsObject

Detalhes da chamada da ferramenta.

Nome Tipo Descrição Obrigatório Predefinido
tool_calls matriz Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter, retrieval ou function.
Sim
tipo cadeia (de caracteres) Sempre tool_calls. Sim

tipo Enum: RunStepDetailsToolCallsObjectType

Valor Descrição
tool_calls

executarEtapaDeltaDetalhesDaChamadaDaFerramentaObjeto

Detalhes da chamada da ferramenta.

Nome Tipo Descrição Obrigatório Predefinido
tool_calls matriz Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter, file_search ou function.
Não
tipo cadeia (de caracteres) Sempre tool_calls. Sim

tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType

Valor Descrição
tool_calls

runStepDetailsToolChamaObjetoDeCódigo

Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.

Nome Tipo Descrição Obrigatório Predefinido
interpretador de código objecto A definição de chamada da ferramenta Interpretador de Código. Sim
└─ entrada cadeia (de caracteres) A entrada para a chamada da ferramenta Interpretador de Código. Não
└─ saídas matriz As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. Não
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDetailsToolCallsCodeObjectType

Valor Descrição
interpretador de código

runStepDeltaStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.

Nome Tipo Descrição Obrigatório Predefinido
interpretador de código objecto A definição de chamada da ferramenta Interpretador de Código. Não
└─ entrada cadeia (de caracteres) A entrada para a chamada da ferramenta Interpretador de Código. Não
└─ saídas matriz As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. Não
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Não
indexar número inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType

Valor Descrição
interpretador de código

DetalhesDoPassoDeExecuçãoFerramentaChamaCódigoSaídaRegistosObjeto

Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.

Nome Tipo Descrição Obrigatório Predefinido
registos cadeia (de caracteres) A saída de texto da chamada da ferramenta Interpretador de Código. Sim
tipo cadeia (de caracteres) Sempre logs. Sim

tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Valor Descrição
registos

executaEtapaDeltaDetalhesDaFerramentaChamadasDeCódigoSaídaRegistosDeObjeto

Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.

Nome Tipo Descrição Obrigatório Predefinido
indexar número inteiro O índice da saída na matriz de saídas. Sim
registos cadeia (de caracteres) A saída de texto da chamada da ferramenta Interpretador de Código. Não
tipo cadeia (de caracteres) Sempre logs. Sim

tipo Enum: TipoDeObjetoDeRegistosDeSaídaDeCódigoDeFerramentasDeDetalhesDeEtapaDeDeltaDeEtapaDeExecução

Valor Descrição
registos

DetalhesExecuçãoFerramentaChamaCódigoSaídaImagemObjeto

Nome Tipo Descrição Obrigatório Predefinido
imagem objecto Sim
└─ id_do_arquivo cadeia (de caracteres) O ID de arquivo da imagem. Não
tipo cadeia (de caracteres) Sempre image. Sim

tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

Valor Descrição
imagem

executarPassoDeltaPassoDetalhesFerramentaChamaCódigoSaídaImagemObjeto

Nome Tipo Descrição Obrigatório Predefinido
imagem objecto Não
└─ id_do_arquivo cadeia (de caracteres) O ID do arquivo da imagem. Não
indexar número inteiro O índice da saída na matriz de saídas. Sim
tipo cadeia (de caracteres) Sempre image. Sim

digite Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Valor Descrição
imagem

runStepDetailsToolCallsFileSearchObject

Nome Tipo Descrição Obrigatório Predefinido
pesquisa de ficheiros objecto Por enquanto, este será sempre um objeto vazio. Sim
└─ Resultados matriz Os resultados da pesquisa de ficheiros. Não
ID cadeia (de caracteres) A ID do objeto de chamada da ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. Sim

tipo Enum: RunStepDetailsToolCallsFileSearchObjectType

Valor Descrição
pesquisa de ficheiros

DetalhesDaEtapaExecuçãoFerramentaChamadasArquivoResultadoPesquisaObjeto

Uma instância de resultado da pesquisa de arquivo.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo matriz O conteúdo do resultado encontrado. O conteúdo só é incluído se solicitado através do parâmetro include query. Não
identificação_de_ficheiro cadeia (de caracteres) A ID do arquivo em que o resultado foi encontrado. Sim
nome_do_ficheiro cadeia (de caracteres) O nome do arquivo em que o resultado foi encontrado. Sim
classificação número A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Sim

FerramentaDetalhesPassoDeltaChamaPesquisaFicheiroObjeto

Nome Tipo Descrição Obrigatório Predefinido
pesquisa de ficheiros objecto Por enquanto, este será sempre um objeto vazio. Sim
ID cadeia (de caracteres) A ID do objeto de chamada da ferramenta. Não
indexar número inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. Sim

digite Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Valor Descrição
pesquisa de ficheiros

runStepDetailsToolCallsFunctionObject

Nome Tipo Descrição Obrigatório Predefinido
função objecto A definição da função que foi chamada. Sim
└─ argumentos cadeia (de caracteres) Os argumentos passaram para a função. Não
└─ nome cadeia (de caracteres) O nome da função. Não
└─ saída cadeia (de caracteres) A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. Não
ID cadeia (de caracteres) A ID do objeto de chamada da ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Sim

Enum: RunStepDetailsToolCallsFunctionObjectType

Valor Descrição
função

executarPassoDeltaDetalhesDaFerramentaChamaObjetoDeFunção

Nome Tipo Descrição Obrigatório Predefinido
função objecto A definição da função que foi chamada. Não
└─ argumentos cadeia (de caracteres) Os argumentos passaram para a função. Não
└─ nome cadeia (de caracteres) O nome da função. Não
└─ saída cadeia (de caracteres) A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. Não
ID cadeia (de caracteres) A ID do objeto de chamada da ferramenta. Não
indexar número inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Sim
tipo cadeia (de caracteres) O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Sim

Enum: RunStepDetailsToolCallsFunctionObjectType

Valor Descrição
função

expiraçãoDoArmazenamentoVectoresApós

A política de expiração para um repositório de vetores.

Nome Tipo Descrição Obrigatório Predefinido
âncora cadeia (de caracteres) Carimbo de data/hora âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at. Sim
Dias número inteiro O número de dias após o tempo de ancoragem que o armazenamento do vetor expirará. Sim

âncora Enum: Expiração do Armazenamento de Vetores Após Âncora

Valor Descrição
última_atividade_em O carimbo de data/hora âncora após o qual a política de expiração se aplica.

vectorStoreObject

Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Nome Tipo Descrição Obrigatório Predefinido
criado_em número inteiro O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi criado. Sim
expira após vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
expira_em número inteiro O carimbo de data/hora do Unix (em segundos) para quando o armazenamento vetorial expirará. Não
contagem_de_ficheiros objecto Sim
└─ Cancelado número inteiro O número de arquivos que foram cancelados. Não
└─ concluída número inteiro O número de arquivos que foram processados com êxito. Não
└─ não conseguiu número inteiro O número de arquivos que não conseguiram processar. Não
└─ em progresso número inteiro O número de arquivos que estão sendo processados no momento. Não
└─ total número inteiro O número total de ficheiros. Não
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
última_atividade_em número inteiro O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi ativo pela última vez. Sim
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
nome cadeia (de caracteres) O nome do repositório de vetores. Sim
objecto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vector_store
Sim
estado cadeia (de caracteres) O status do armazenamento vetorial, que pode ser , expiredin_progressou completed. Um status de indica que o armazenamento de completed vetores está pronto para uso. Sim
bytes de uso número inteiro O número total de bytes usados pelos arquivos no armazenamento vetorial. Sim

status Enum: VectorStoreObjectStatus

Valor Descrição
expirou
em andamento
concluída

criarPedidoDeArmazenamentoVetorial

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. Não
expira após vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
identificadores_de_arquivo matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
nome cadeia (de caracteres) O nome do repositório de vetores. Não

pedidoDeAtualizaçãoDaLojaVetorial

Nome Tipo Descrição Obrigatório Predefinido
expira após vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
metadados objecto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
nome cadeia (de caracteres) O nome do repositório de vetores. Não

listVectorStoresResponse

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

deleteVectorStoreResponse

Nome Tipo Descrição Obrigatório Predefinido
Suprimido Booleano Sim
ID cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteVectorStoreResponseObject

Valor Descrição
vetor_store.deleted O estado do objeto de resposta do repositório de vetores de exclusão

vectorStoreFileObject

Uma lista de arquivos anexados a um repositório vetorial.

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. Não
criado_em número inteiro O carimbo de data/hora Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. Sim
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
último_erro objecto O último erro associado a este arquivo de armazenamento vetorial. Será null se não houver erros. Sim
└─ código cadeia (de caracteres) Um de server_error ou invalid_fileunsupported_fileou . Não
└─ mensagem cadeia (de caracteres) Uma descrição do erro legível por humanos. Não
objecto cadeia (de caracteres) O tipo de objeto, que é sempre vector_store.file. Sim
estado cadeia (de caracteres) O status do arquivo de armazenamento vetorial, que pode ser in_progress, completed, cancelled, ou failed. O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. Sim
bytes de uso número inteiro O uso total do armazenamento de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. Sim
identificador_de_armazenamento_vetor cadeia (de caracteres) A ID do armazenamento de vetores ao qual o arquivo está anexado. Sim

objeto Enum: VectorStoreFileObjectType

Valor Descrição
vetor_store.file

Status Enum: VectorStoreFileObjectStatus

Valor Descrição
em andamento
concluída
cancelado
com falhas

outroParâmetroDeRespostaDaEstratégiaDeFragmentação

Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.

Nome Tipo Descrição Obrigatório Predefinido
tipo cadeia (de caracteres) Sempre other. Sim

tipo Enum: OtherChunkingStrategyResponseParamType

Valor Descrição
Outros

estratégiaDeSegmentaçãoEstáticaParâmetroDeResposta

Nome Tipo Descrição Obrigatório Predefinido
estático staticChunkingStrategy Sim
tipo cadeia (de caracteres) Sempre static. Sim

tipo Enum: StaticChunkingStrategyResponseParamType

Valor Descrição
estático

estratégiaDeSegmentaçãoEstática

Nome Tipo Descrição Obrigatório Predefinido
sobreposição_de_fragamentos_tokens número inteiro O número de tokens que se sobrepõem entre partes. O valor predefinido é 400.

Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Sim
tamanho_máximo_porção_tokens número inteiro O número máximo de tokens em cada bloco. O valor predefinido é 800. O valor mínimo é 100 e o valor máximo é 4096. Sim

parâmetroDePedidoDeEstratégiaDeAutoSegmentação

A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração Sempre auto.
Valores possíveis: auto
Sim

parâmetroDeSolicitaçãoDeEstratégiaDeSegmentaçãoEstática

Nome Tipo Descrição Obrigatório Predefinido
estático staticChunkingStrategy Sim
tipo enumeração Sempre static.
Valores possíveis: static
Sim

ParâmetroDeSolicitaçãoDeEstratégiaDeDivisão

A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia.

Este componente pode ser um dos seguintes:

createVectorStoreFileRequest

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não
identificação_de_ficheiro cadeia (de caracteres) Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim

listVectorStoreFilesResponse

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Sim
first_id cadeia (de caracteres) Sim
tem_mais Booleano Sim
last_id cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

deleteVectorStoreFileResponse

Nome Tipo Descrição Obrigatório Predefinido
Suprimido Booleano Sim
ID cadeia (de caracteres) Sim
objecto cadeia (de caracteres) Sim

objeto Enum: DeleteVectorStoreFileResponseObject

Valor Descrição
vetor_store.file.deleted

vectorStoreFileBatchObject

Um lote de arquivos anexados a um armazenamento vetorial.

Nome Tipo Descrição Obrigatório Predefinido
criado_em número inteiro O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos de armazenamento vetorial foi criado. Sim
contagem_de_ficheiros objecto Sim
└─ Cancelado número inteiro O número de arquivos que foram cancelados. Não
└─ concluída número inteiro O número de arquivos que foram processados. Não
└─ não conseguiu número inteiro O número de arquivos que não conseguiram processar. Não
└─ em progresso número inteiro O número de arquivos que estão sendo processados no momento. Não
└─ total número inteiro O número total de ficheiros. Não
ID cadeia (de caracteres) O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objecto cadeia (de caracteres) O tipo de objeto, que é sempre vector_store.file_batch. Sim
estado cadeia (de caracteres) O status do lote de arquivos de armazenamento vetorial, que pode ser in_progress, completedcancelled ou failed. Sim
identificador_de_armazenamento_vetor cadeia (de caracteres) A ID do armazenamento vetorial ao qual o arquivo está anexado. Sim

objeto Enum: VectorStoreFileBatchObjectType

Valor Descrição
vetor_store.files_lote

status Enum: VectorStoreFileBatchObjectStatus

Valor Descrição
em andamento
concluída
cancelado
com falhas

createVectorStoreFileBatchRequest

Nome Tipo Descrição Obrigatório Predefinido
estratégia_de_segmentação ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não
identificadores_de_arquivo matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim

assistantStreamEvent

Representa um evento emitido durante o streaming de uma Execução.

Cada evento em um fluxo de eventos enviado pelo servidor tem uma event propriedade e data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma corrida, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.

Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos lidar com eventos desconhecidos graciosamente em seu código.

Este componente pode ser um dos seguintes:

threadStreamEvent

Este componente pode ser um dos seguintes:

thread.criado

Ocorre quando um novo thread é criado.

Nome Tipo Descrição Obrigatório Predefinido
dados threadObject Representa um thread que contém mensagens. Sim
evento cadeia (de caracteres) Sim

Dados: threadObject

Enum do evento: ThreadStreamEventEnum

Valor Descrição
thread.criado O evento criado pelo thread

runStreamEvent

Este componente pode ser um dos seguintes:

thread.run.criado

Ocorre quando uma nova execução é criada.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventCreated

Valor Descrição
thread.run.criado

thread.run.queued

Ocorre quando uma execução é movida para um queued status.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventQueued

Valor Descrição
thread.run.queued

execução_da_tarefa_em_andamento

Ocorre quando uma execução é movida para um in_progress status.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventInProgress

Valor Descrição
execução_da_tarefa_em_andamento

execução_do_fio.exige_ação

Ocorre quando uma execução é movida para um requires_action status.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventRequiresAction

Valor Descrição
execução_do_fio.exige_ação

thread.run.concluído

Ocorre quando uma execução é concluída.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventCompleted

Valor Descrição
thread.run.concluído

falha na execução da thread

Ocorre quando uma execução falha.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventFailed

Valor Descrição
falha na execução da thread

thread.run.cancelamento

Ocorre quando uma execução é movida para um cancelling status.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventCancelling

Valor Descrição
thread.run.cancelamento

thread.run.cancelada

Ocorre quando uma execução é cancelada.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventCancelled

Valor Descrição
thread.run.cancelada

thread.run.expirado

Ocorre quando uma execução expira.

Nome Tipo Descrição Obrigatório Predefinido
dados runObject Representa uma execução executada em um threads. Sim
evento cadeia (de caracteres) Sim

Dados: runObject

Enum do evento: RunStreamEventExpired

Valor Descrição
thread.run.expirado

runStepStreamEvent

Este componente pode ser um dos seguintes:

thread.executar.etapa.criada

Ocorre quando uma etapa de execução é criada.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepObject Representa uma etapa na execução de uma execução.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventCreated

Valor Descrição
thread.executar.etapa.criada

thread.run.passos.em_progresso

Ocorre quando uma etapa de execução se move para um in_progress estado.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepObject Representa uma etapa na execução de uma execução.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventInProgress

Valor Descrição
thread.run.passos.em_progresso

thread.run.step.delta

Ocorre quando partes de uma etapa de execução estão sendo transmitidas.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepDeltaObject Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepDeltaObject

Enum do evento: RunStepStreamEventDelta

Valor Descrição
thread.run.step.delta

thread.execução.passo.completado

Ocorre quando uma etapa de execução é concluída.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepObject Representa uma etapa na execução de uma execução.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventCompleted

Valor Descrição
thread.execução.passo.completado

Erro ao executar passo do fio

Ocorre quando uma etapa de execução falha.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepObject Representa uma etapa na execução de uma execução.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventFailed

Valor Descrição
Erro ao executar passo do fio

thread.run.step.cancelado

Ocorre quando uma etapa de execução é cancelada.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepObject Representa uma etapa na execução de uma execução.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepObject

Enum do Evento: RunStepStreamEventCancelled

Valor Descrição
thread.run.step.cancelado

execução.da.tarefa.passo.expirou

Ocorre quando uma etapa de execução expira.

Nome Tipo Descrição Obrigatório Predefinido
dados runStepObject Representa uma etapa na execução de uma execução.
Sim
evento cadeia (de caracteres) Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventExpired

Valor Descrição
execução.da.tarefa.passo.expirou

eventoFluxoDeMensagens

Este componente pode ser um dos seguintes:

Mensagem criada em thread

Ocorre quando uma mensagem é criada.

Nome Tipo Descrição Obrigatório Predefinido
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Dados: messageObject

Enum do evento: MessageStreamEventCreated

Valor Descrição
Mensagem criada em thread

mensagem.em_progresso

Ocorre quando uma mensagem é movida para um in_progress estado.

Nome Tipo Descrição Obrigatório Predefinido
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Dados: messageObject

Enum do evento: MessageStreamEventInProgress

Valor Descrição
mensagem.em_progresso

tópico.mensagem.delta

Ocorre quando partes de uma mensagem estão sendo transmitidas.

Nome Tipo Descrição Obrigatório Predefinido
dados messageDeltaObject Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
Sim
evento cadeia (de caracteres) Sim

Dados: messageDeltaObject

Enum do evento: MessageStreamEventDelta

Valor Descrição
tópico.mensagem.delta

mensagem.do.tópico.concluída

Ocorre quando uma mensagem é concluída.

Nome Tipo Descrição Obrigatório Predefinido
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Dados: messageObject

Enum do evento: MessageStreamEventCompleted

Valor Descrição
mensagem.do.tópico.concluída

thread.message.incompleto

Ocorre quando uma mensagem termina antes de ser concluída.

Nome Tipo Descrição Obrigatório Predefinido
dados messageObject Representa uma mensagem dentro de um thread. Sim
evento cadeia (de caracteres) Sim

Dados: messageObject

Enum do evento: MessageStreamEventIncomplete

Valor Descrição
thread.message.incompleto

Anotação

Este componente pode ser um dos seguintes:

Clique em

Uma ação de clique.

Nome Tipo Descrição Obrigatório Predefinido
botão enumeração Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back, ou forward.

Valores possíveis: left, right, wheel, back, , forward
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.

Valores possíveis: click
Sim
x número inteiro A coordenada x onde ocorreu o clique.
Sim
y número inteiro A coordenada y onde ocorreu o clique.
Sim

SaídaDeFicheiroDoInterpretadorDeCódigo

A saída de um ficheiro gerada por uma chamada de ferramenta de interpretador de código.

Nome Tipo Descrição Obrigatório Predefinido
ficheiros matriz Sim
tipo enumeração O tipo de saída do arquivo do interpretador de código. Sempre files.

Valores possíveis: files
Sim

SaídaDeTextoDoInterpretadorDeCódigo

A saída de uma chamada de ferramenta de interpretador de código que é texto.

Nome Tipo Descrição Obrigatório Predefinido
registos cadeia (de caracteres) Os registos da chamada do intérprete de código.
Sim
tipo enumeração O tipo de saída de texto do interpretador de código. Sempre logs.

Valores possíveis: logs
Sim

CodeInterpreterTool

Uma ferramenta que executa código.

Nome Tipo Descrição Obrigatório Predefinido
identificadores_de_arquivo matriz As IDs dos arquivos nos quais executar o código.
Sim
tipo enumeração O tipo da ferramenta de interpretador de código. Sempre code_interpreter.

Valores possíveis: code_interpreter
Sim

CodeInterpreterToolCall

Uma chamada de ferramenta para executar código.

Nome Tipo Descrição Obrigatório Predefinido
código cadeia (de caracteres) O código a ser executado.
Sim
ID cadeia (de caracteres) O ID exclusivo da chamada da ferramenta de interpretação de código.
Sim
Resultados matriz Os resultados da invocação da ferramenta de interpretação de código.
Sim
estado enumeração O estado da chamada da ferramenta intérprete de código.

Valores possíveis: in_progress, interpreting, completed
Sim
tipo enumeração O tipo de chamada da ferramenta de interpretação de código. Sempre code_interpreter_call.

Valores possíveis: code_interpreter_call
Sim

SaídaDaFerramentaInterpretadorDeCódigo

Este componente pode ser um dos seguintes:

ComparaçãoFiltro

Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.

Nome Tipo Descrição Obrigatório Predefinido
chave cadeia (de caracteres) A chave pela qual se compara o valor. Sim
tipo enumeração Especifica o operador de comparação: eq, ne, gt, gte, lt, lte.
- eq: igual a
- ne: não igual
- gt: superior a
- gte: maior ou igual
- lt: menos de
- lte: menor ou igual

Valores possíveis: eq, ne, gt, gte, , lt, lte
Sim
valor string ou número ou booleano O valor a ser comparado com a chave de atributo; suporta tipos de string, número ou booleanos. Sim

FiltroComposto

Combine vários filtros usando and ou or.

Nome Tipo Descrição Obrigatório Predefinido
filtros matriz Matriz de filtros para combinar. Os itens podem ser ComparisonFilter ou CompoundFilter. Sim
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Sim

ComputerAction

Este componente pode ser um dos seguintes:

ComputadorCapturaDeEcrãImagem

Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.

Nome Tipo Descrição Obrigatório Predefinido
identificação_de_ficheiro cadeia (de caracteres) O identificador de um arquivo carregado que contém a captura de tela. Não
image_url cadeia (de caracteres) O URL da imagem da captura de tela. Não
tipo enumeração Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.

Valores possíveis: computer_screenshot
Sim

Ferramenta Informática

Uma ferramenta que controla um computador virtual.

Nome Tipo Descrição Obrigatório Predefinido
altura do ecrã número A altura do ecrã do computador.
Sim
largura de exibição número A largura do ecrã do computador.
Sim
ambiente enumeração O tipo de ambiente de computador a controlar.

Valores possíveis: mac, windows, ubuntu, browser
Sim
tipo enumeração O tipo de ferramenta de uso do computador. Sempre computer_use_preview.

Valores possíveis: computer-use-preview
Sim

ComputerToolCall

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Nome Tipo Descrição Obrigatório Predefinido
ação ComputerAction Sim
ID de chamada cadeia (de caracteres) Um identificador usado ao responder a uma solicitação da ferramenta com resultados.
Sim
ID cadeia (de caracteres) O identificador exclusivo da chamada do computador. Sim
verificações_de_segurança_pendentes matriz As verificações de segurança pendentes para a chamada do computador.
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Sim
tipo enumeração O tipo da chamada do computador. Sempre computer_call.
Valores possíveis: computer_call
Sim

ComputerToolCallOutput

A saída de uma chamada de ferramenta de computador.

Nome Tipo Descrição Obrigatório Predefinido
verificações_de_segurança_reconhecidas matriz As verificações de segurança relatadas pela API que foram reconhecidas pelo desenvolvedor.
Não
ID de chamada cadeia (de caracteres) O ID da chamada de ferramenta de computador que produziu a saída.
Sim
ID cadeia (de caracteres) O ID da saída da chamada da ferramenta de computador.
Não
output ImagemDeCapturaDoEcrãDoComputador Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Sim
estado enumeração O estado da entrada de mensagem. Um de in_progress, completedou incomplete. Preenchido quando os itens de entrada são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de saída da chamada da ferramenta do computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Sim

ComputerToolCallOutputResource

Nome Tipo Descrição Obrigatório Predefinido
verificações_de_segurança_reconhecidas matriz As verificações de segurança relatadas pela API que foram reconhecidas pelo desenvolvedor.
Não
ID de chamada cadeia (de caracteres) O ID da chamada de ferramenta de computador que produziu a saída.
Sim
ID cadeia (de caracteres) O ID exclusivo da saída da ferramenta de chamada do computador.
Sim
output ImagemDeCapturaDoEcrãDoComputador Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Sim
estado enumeração O estado da entrada de mensagem. Um de in_progress, completedou incomplete. Preenchido quando os itens de entrada são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de saída da chamada da ferramenta do computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Sim

Verificação de Segurança da Chamada de Ferramenta do Computador

Uma verificação de segurança pendente para a chamada no computador.

Nome Tipo Descrição Obrigatório Predefinido
código cadeia (de caracteres) O tipo de verificação de segurança pendente. Sim
ID cadeia (de caracteres) ID da verificação de segurança pendente. Sim
mensagem cadeia (de caracteres) Detalhes sobre a verificação de segurança pendente. Sim

Conteúdo

Conteúdos multimodais de entrada e saída.

Este componente pode ser um dos seguintes:

Coordenar

Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }

Nome Tipo Descrição Obrigatório Predefinido
x número inteiro A coordenada x.
Sim
y número inteiro A coordenada y.
Sim

CriarPropriedadesDeRespostaDoModelo

Nome Tipo Descrição Obrigatório Predefinido
metadados Metadados Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel.

As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Não
modelo cadeia (de caracteres) Modelo utilizado para gerar as respostas. Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. .
Não

createResponse

Nome Tipo Descrição Obrigatório Predefinido
incluem matriz {"$ref": "#/components/schemas/includable/description"} Não
dados introduzidos cadeia de caracteres ou matriz Entradas de texto, imagem ou arquivo no modelo, usadas para gerar uma resposta. Sim
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Não
max_output_tokens (máximo de tokens de saída) número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.
Não
chamadas_de_ferramentas_em_paralelo Booleano Se deve permitir que o modelo execute chamadas de ferramenta em paralelo.
Não Verdade
ID_de_resposta_anterior cadeia (de caracteres) O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. Não
Fundamentação Fundamentação Apenas modelos da série O

Opções de configuração para modelos de raciocínio.
Não
armazenar Booleano Se a resposta do modelo gerado deve ser armazenada para recuperação posterior via API.
Não Verdade
fluxo Booleano Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. Não Falso
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- entradas e saídas de texto
- Saídas Estruturadas
Não
└─ formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve produzir.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam.
Não
escolha_de_ferramenta ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Não
Ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas incorporadas
Não
truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o
para se ajustar à janela de contexto, removendo itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
Não

DoubleClick

Uma ação de clique duplo.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.

Valores possíveis: double_click
Sim
x número inteiro A coordenada x onde ocorreu o duplo clique.
Sim
y número inteiro A coordenada y onde ocorreu o duplo clique.
Sim

Arraste

Uma ação de arrastar.

Nome Tipo Descrição Obrigatório Predefinido
caminho matriz Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas aparecerão como uma matriz de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.

Valores possíveis: drag
Sim

MensagemDeEntradaSimples

Uma entrada de mensagem para o modelo com uma função que indica a adesão a uma hierarquia de instruções. As instruções dadas com a developer função ou system têm precedência sobre as instruções dadas com a user função. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo string ou InputMessageContentList Entrada de texto, imagem ou áudio no modelo, usada para gerar uma resposta.
Também pode conter respostas anteriores do assistente.
Sim
função enumeração A função da entrada de mensagem. Um de user, assistant, system, ou developer.

Valores possíveis: user, assistant, system, developer
Sim
tipo enumeração O tipo de entrada de mensagem. Sempre message.

Valores possíveis: message
Não

FileCitation

Uma citação a um ficheiro.

Nome Tipo Descrição Obrigatório Predefinido
identificação_de_ficheiro cadeia (de caracteres) A ID do arquivo.
Sim
indexar número inteiro O índice do arquivo na lista de arquivos.
Sim
tipo enumeração O tipo de citação do arquivo. Sempre file_citation.

Valores possíveis: file_citation
Sim

FilePath

Um caminho para um arquivo.

Nome Tipo Descrição Obrigatório Predefinido
identificação_de_ficheiro cadeia (de caracteres) A ID do arquivo.
Sim
indexar número inteiro O índice do arquivo na lista de arquivos.
Sim
tipo enumeração O tipo do caminho do arquivo. Sempre file_path.

Valores possíveis: file_path
Sim

FileSearchRanker

O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, será utilizado o auto ranker.

Propriedade Valor
Descrição O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, será utilizado o auto ranker.
Tipo cadeia (de caracteres)
Valores auto
default_2024_08_21

FerramentaDePesquisaDeFicheiros

Uma ferramenta que procura conteúdo relevante a partir de ficheiros carregados.

Nome Tipo Descrição Obrigatório Predefinido
filtros ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. Não
máximo_número_de_resultados número inteiro O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive.
Não
opções_de_classificação objecto Opções de classificação para pesquisa. Não
└─ classificador enumeração O classificador a ser usado para a pesquisa de arquivos.
Valores possíveis: auto, default-2024-11-15
Não
└─ limiar_de_pontuação número O limite de pontuação para a pesquisa de ficheiros, um número entre 0 e 1.
Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados.
Não 0
tipo enumeração O tipo da ferramenta de pesquisa de ficheiros. Sempre file_search.

Valores possíveis: file_search
Sim
identificadores_de_armazém_de_vectores matriz Os IDs do vetor armazena para pesquisar.
Sim

FileSearchToolCall

Os resultados de uma chamada de ferramenta de pesquisa de arquivos.

Nome Tipo Descrição Obrigatório Predefinido
ID cadeia (de caracteres) A ID única da chamada da ferramenta de pesquisa de ficheiros.
Sim
consultas matriz As consultas usadas para procurar arquivos.
Sim
Resultados matriz Os resultados da chamada da ferramenta de pesquisa de ficheiros.
Não
estado enumeração O status da chamada da ferramenta de pesquisa de arquivos. Um dos in_progress, searchingincomplete ou failed,

Valores possíveis: in_progress, searching, completed, incomplete, , failed
Sim
tipo enumeração O tipo de chamada da ferramenta de pesquisa de ficheiros. Sempre file_search_call.

Valores possíveis: file_search_call
Sim

FunctionTool

Define uma função no seu próprio código que o modelo pode optar por chamar.

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada.
Não
nome cadeia (de caracteres) O nome da função a ser chamada.
Sim
parâmetros objecto Um objeto de esquema JSON que descreve os parâmetros da função.
Sim
rigoroso Booleano Se a validação de parâmetros estrita deve ser imposta. Padrão true.
Sim
tipo enumeração O tipo da ferramenta de função. Sempre function.

Valores possíveis: function
Sim

FunctionToolCall

Uma chamada de ferramenta para executar uma função.

Nome Tipo Descrição Obrigatório Predefinido
Argumentos cadeia (de caracteres) Uma cadeia de caracteres JSON dos argumentos a serem passados para a função.
Sim
ID de chamada cadeia (de caracteres) O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo.
Sim
ID cadeia (de caracteres) O ID único da chamada da ferramenta de função.
Sim
nome cadeia (de caracteres) O nome da função a ser executada.
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de chamada da ferramenta funcional. Sempre function_call.

Valores possíveis: function_call
Sim

FunctionToolCallOutput

A saída de uma chamada de ferramenta funcional.

Nome Tipo Descrição Obrigatório Predefinido
ID de chamada cadeia (de caracteres) O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo.
Sim
ID cadeia (de caracteres) O identificador exclusivo da saída de chamada da ferramenta de função. Preenchido quando este item é retornado via API.
Não
output cadeia (de caracteres) Uma cadeia de caracteres JSON da saída da chamada da ferramenta funcional.
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.

Valores possíveis: function_call_output
Sim

FunctionToolCallOutputResource

Nome Tipo Descrição Obrigatório Predefinido
ID de chamada cadeia (de caracteres) O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo.
Sim
ID cadeia (de caracteres) O ID exclusivo da saída da ferramenta de chamada de função.
Sim
output cadeia (de caracteres) Uma cadeia de caracteres JSON da saída da chamada da ferramenta funcional.
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.

Valores possíveis: function_call_output
Sim

incluível

Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores atualmente suportados são:

  • file_search_call.results: Inclua os resultados da ferramenta de pesquisa de arquivos na chamada de pesquisa.
  • message.input_image.image_url: Inclua URLs de imagem da mensagem de entrada.
  • computer_call_output.output.image_url: Inclua URLs de imagens dos resultados da chamada no computador.
Propriedade Valor
Descrição Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores atualmente suportados são:
- file_search_call.results: Inclua nos resultados da pesquisa a chamada à ferramenta de pesquisa de arquivos.
- message.input_image.image_url: Inclua urls de imagem da mensagem de entrada.
- computer_call_output.output.image_url: Inclua URLs de imagens da saída de chamada do computador.
Tipo cadeia (de caracteres)
Valores file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

Entrada de Áudio

Uma entrada de áudio para o modelo.

Nome Tipo Descrição Obrigatório Predefinido
dados cadeia (de caracteres) Dados de áudio codificados em Base64.
Sim
Formato enumeração O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav.

Valores possíveis: mp3, wav
Sim
tipo enumeração O tipo do item de entrada. Sempre input_audio.

Valores possíveis: input_audio
Sim

Conteúdo de Entrada

Este componente pode ser um dos seguintes:

Arquivo de Entrada

Uma entrada de arquivo para o modelo.

Nome Tipo Descrição Obrigatório Predefinido
dados_do_arquivo cadeia (de caracteres) O conteúdo do arquivo a ser enviado para o modelo.
Não
identificação_de_ficheiro cadeia (de caracteres) A ID do arquivo a ser enviado para o modelo.
Não
nome do ficheiro cadeia (de caracteres) O nome do arquivo a ser enviado para o modelo.
Não
tipo enumeração O tipo do item de entrada. Sempre input_file.

Valores possíveis: input_file
Sim

Imagem de Entrada

Uma entrada de imagem para o modelo.

Nome Tipo Descrição Obrigatório Predefinido
detalhe enumeração O nível de detalhe da imagem a ser enviada para o modelo. Um de high, lowou auto. O padrão é auto.

Valores possíveis: high, low, auto
Sim
identificação_de_ficheiro cadeia (de caracteres) A ID do arquivo a ser enviado para o modelo.
Não
image_url cadeia (de caracteres) O URL da imagem a ser enviada para o modelo. Um URL totalmente qualificado ou uma imagem codificada em base64 em um URL de dados.
Não
tipo enumeração O tipo do item de entrada. Sempre input_image.

Valores possíveis: input_image
Sim

Item de Entrada

Este componente pode ser um dos seguintes:

Mensagem de Entrada

Uma entrada de mensagem para o modelo com uma função que indica a adesão a uma hierarquia de instruções. As instruções dadas com a developer função ou system têm precedência sobre as instruções dadas com a user função.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo ListaDeConteúdoDeMensagemDeEntrada Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdo diferente
tipos.
Sim
função enumeração A função da entrada de mensagem. Um de user, systemou developer.

Valores possíveis: user, system, developer
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de entrada de mensagem. Sempre definido como message.

Valores possíveis: message
Não

ListaDeConteúdoDeMensagemDeEntrada

Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes tipos de conteúdo.

Nenhuma propriedade definida para este componente.

RecursoDeMensagemDeEntrada

Nome Tipo Descrição Obrigatório Predefinido
conteúdo ListaDeConteúdoDeMensagemDeEntrada Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdo diferente
tipos.
Sim
ID cadeia (de caracteres) O ID exclusivo da mensagem de entrada.
Sim
função enumeração A função da entrada de mensagem. Um de user, systemou developer.

Valores possíveis: user, system, developer
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo de entrada de mensagem. Sempre definido como message.

Valores possíveis: message
Não

Insira texto

Uma entrada de texto para o modelo.

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) A entrada de texto para o modelo.
Sim
tipo enumeração O tipo do item de entrada. Sempre input_text.

Valores possíveis: input_text
Sim

Iteme

Item de conteúdo usado para gerar uma resposta.

Este componente pode ser um dos seguintes:

Referência de Item

Um identificador interno para um item a ser referenciado.

Nome Tipo Descrição Obrigatório Predefinido
ID cadeia (de caracteres) A ID do item a ser referenciado.
Sim
tipo enumeração O tipo de item a ser referenciado. Sempre item_reference.

Valores possíveis: item_reference
Sim

Recurso de Item

Item de conteúdo usado para gerar uma resposta.

Este componente pode ser um dos seguintes:

Pressionamento de tecla

Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.

Nome Tipo Descrição Obrigatório Predefinido
Teclas matriz A combinação de teclas que o modelo está solicitando para ser pressionada. Esta é uma matriz de cadeias de caracteres, cada uma representando uma chave.
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de pressionamento de teclas, essa propriedade é sempre definida como keypress.

Valores possíveis: keypress
Sim

Metadados

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel.

As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.

Nenhuma propriedade definida para este componente.

PropriedadesDeRespostaDoModelo

Nome Tipo Descrição Obrigatório Predefinido
metadados Metadados Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel.

As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Não
modelo cadeia (de caracteres) Modelo utilizado para gerar as respostas. Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. .
Não

Mover

Uma ação de movimento do mouse.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.

Valores possíveis: move
Sim
x número inteiro A coordenada x para a qual mover.
Sim
y número inteiro A coordenada y para a qual mover.
Sim

Saída de Áudio

Uma saída de áudio do modelo.

Nome Tipo Descrição Obrigatório Predefinido
dados cadeia (de caracteres) Dados de áudio codificados em Base64 do modelo.
Sim
transcrição cadeia (de caracteres) A transcrição dos dados de áudio do modelo.
Sim
tipo enumeração O tipo de áudio de saída. Sempre output_audio.

Valores possíveis: output_audio
Sim

Conteúdo de Saída

Este componente pode ser um dos seguintes:

Item de Saída

Nome Tipo Descrição Obrigatório Predefinido
ação ComputerAction Sim
Argumentos cadeia (de caracteres) Uma cadeia de caracteres JSON dos argumentos a serem passados para a função.
Sim
ID de chamada cadeia (de caracteres) Um identificador usado ao responder a uma solicitação da ferramenta com resultados.
Sim
conteúdo matriz Fundamentação do conteúdo do texto.
Sim
ID cadeia (de caracteres) O identificador exclusivo do conteúdo do raciocínio.
Sim
nome cadeia (de caracteres) O nome da função a ser executada.
Sim
verificações_de_segurança_pendentes matriz As verificações de segurança pendentes para a chamada do computador.
Sim
consultas matriz As consultas usadas para procurar arquivos.
Sim
Resultados matriz Os resultados da chamada da ferramenta de pesquisa de ficheiros.
Não
função enumeração A função da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Sim
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Sim

Mensagem de saída

Uma mensagem de saída do modelo.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo matriz O conteúdo da mensagem de saída.
Sim
ID cadeia (de caracteres) O ID exclusivo da mensagem de saída.
Sim
função enumeração A função da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Sim
estado enumeração O estado da entrada de mensagem. Um de in_progress, completedou incomplete. Preenchido quando os itens de entrada são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Sim
tipo enumeração O tipo da mensagem de saída. Sempre message.

Valores possíveis: message
Sim

Texto de Saída

Uma saída de texto do modelo.

Nome Tipo Descrição Obrigatório Predefinido
anotações matriz As anotações sobre a saída de texto.
Sim
enviar SMS cadeia (de caracteres) A saída de texto do modelo.
Sim
tipo enumeração O tipo do texto de saída. Sempre output_text.

Valores possíveis: output_text
Sim

Requisição de Criação de Sessão em Tempo Real

Configuração de objeto de sessão em tempo real.

Nome Tipo Descrição Obrigatório Predefinido
formato_de_entrada_de_áudio enumeração O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
redução_de_ruído_de_entrada_áudio objecto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada.
Não
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
Não
transcrição_de_áudio_de_entrada objecto Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do ponto de extremidade das transcrições e deve ser tratada como orientação sobre o conteúdo do áudio de entrada, em vez de exatamente o que o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição.
Não
└─ língua cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhorará a precisão e a latência.
Não
└─ modelo cadeia (de caracteres) O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee whisper-1.
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
Não
Instruções cadeia (de caracteres) As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.

Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão.
Não
tokens_de_output_de_resposta_máxima inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf.
Não
Modalidades O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"].
Não
modelo cadeia (de caracteres) O nome da implementação utilizada para esta sessão.
Não
formato_de_áudio_de_saida enumeração O formato de saída de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
temperatura número Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para o melhor desempenho.
Não 0.8
escolha_de_ferramenta cadeia (de caracteres) Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
Não automóvel
Ferramentas matriz Ferramentas (funções) disponíveis para o modelo. Não
detecção de viragem objecto Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
Não
└─ criar_resposta Booleano Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo em responder. low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ resposta_de_interrupção Booleano Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD.
Não Verdade
└─ preenchimento_prefixo_ms número inteiro Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms.
Não
└─ duração_do_silêncio_ms número inteiro Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador.
Não
└─ limiar número Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos.
Não
└─ tipo enumeração Tipo de deteção de curvas.

Valores possíveis: server_vad, semantic_vad
Não
voz VoiceIdsShared Não

RealtimeSessionCreateResponse

Uma nova configuração de sessão em tempo real, com uma chave efémera. O TTL padrão para chaves é de um minuto.

Nome Tipo Descrição Obrigatório Predefinido
segredo_do_cliente objecto Chave efêmera retornada pela API. Sim
└─ expira_em número inteiro Data de expiração do token. Atualmente, todos os tokens expiram após um minuto.
Não
└─ valor cadeia (de caracteres) Chave efêmera utilizável em ambientes cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor.
Não
formato_de_entrada_de_áudio cadeia (de caracteres) O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Não
transcrição_de_áudio_de_entrada objecto Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do Whisper e deve ser tratada como orientação aproximada em vez da representação entendida pelo modelo.
Não
└─ modelo cadeia (de caracteres) O modelo a ser usado para transcrição whisper-1 é o único modelo atualmente suportado.
Não
Instruções cadeia (de caracteres) As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.
Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão.
Não
tokens_de_output_de_resposta_máxima inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf.
Não
Modalidades O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"].
Não
formato_de_áudio_de_saida cadeia (de caracteres) O formato de saída de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Não
temperatura número Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. O padrão é 0,8.
Não
escolha_de_ferramenta cadeia (de caracteres) Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
Não
Ferramentas matriz Ferramentas (funções) disponíveis para o modelo. Não
detecção de viragem objecto Configuração para deteção de turnos. Pode ser configurado para null para desligar. O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário.
Não
└─ preenchimento_prefixo_ms número inteiro Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms.
Não
└─ duração_do_silêncio_ms número inteiro Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador.
Não
└─ limiar número Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos.
Não
└─ tipo cadeia (de caracteres) Tipo de deteção de turnos, apenas server_vad é suportado atualmente.
Não
voz VoiceIdsShared Não

Pedido de Criação de Sessão de Transcrição em Tempo Real

Configuração de objeto de sessão de transcrição em tempo real.

Nome Tipo Descrição Obrigatório Predefinido
incluem matriz O conjunto de itens a incluir na transcrição. Os itens disponíveis atualmente são:
- item.input_audio_transcription.logprobs
Não
formato_de_entrada_de_áudio enumeração O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
Não
redução_de_ruído_de_entrada_áudio objecto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada.
Não
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
Não
transcrição_de_áudio_de_entrada objecto Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição.
Não
└─ língua cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhorará a precisão e a latência.
Não
└─ modelo enumeração O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, whisper-1
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
Não
Modalidades O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"].
Não
detecção de viragem objecto Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
Não
└─ criar_resposta Booleano Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ Entusiasmo enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo em responder. low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
Não
└─ resposta_de_interrupção Booleano Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD. Não disponível para sessões de transcrição.
Não Verdade
└─ preenchimento_prefixo_ms número inteiro Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms.
Não
└─ duração_do_silêncio_ms número inteiro Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador.
Não
└─ limiar número Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos.
Não
└─ tipo enumeração Tipo de deteção de curvas.

Valores possíveis: server_vad, semantic_vad
Não

Sessão de Transcrição em Tempo Real Criar Resposta

Uma nova configuração de sessão de transcrição em tempo real.

Quando uma sessão é criada no servidor via API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.

Nome Tipo Descrição Obrigatório Predefinido
segredo_do_cliente objecto Chave efêmera retornada pela API. Presente apenas quando a sessão é criada no servidor via API REST.
Sim
└─ expira_em número inteiro Data de expiração do token. Atualmente, todos os tokens expiram após um minuto.
Não
└─ valor cadeia (de caracteres) Chave efêmera utilizável em ambientes cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor.
Não
formato_de_entrada_de_áudio cadeia (de caracteres) O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.
Não
transcrição_de_áudio_de_entrada objecto Configuração do modelo de transcrição.
Não
└─ língua cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhorará a precisão e a latência.
Não
└─ modelo enumeração O modelo a utilizar para a transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, ou whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, whisper-1
Não
└─ Prompt cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio.
Não
Modalidades O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"].
Não
detecção de viragem objecto Configuração para deteção de turnos. Pode ser configurado para null para desligar. O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário.
Não
└─ preenchimento_prefixo_ms número inteiro Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms.
Não
└─ duração_do_silêncio_ms número inteiro Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador.
Não
└─ limiar número Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos.
Não
└─ tipo cadeia (de caracteres) Tipo de deteção de turnos, apenas server_vad é suportado atualmente.
Não

Raciocínio

Apenas modelos da série O

Opções de configuração para modelos de raciocínio.

Nome Tipo Descrição Obrigatório Predefinido
esforço Esforço de Raciocínio Apenas modelos da série O

Restringe o esforço no raciocínio para modelos de raciocínio.
Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Sim meio
resumo enumeração Apenas modelos da série O

Um resumo do raciocínio realizado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Um dos concise ou detailed.

Valores possíveis: concise, detailed
Não

Item de Raciocínio

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo matriz Fundamentação do conteúdo do texto.
Sim
ID cadeia (de caracteres) O identificador exclusivo do conteúdo do raciocínio.
Sim
estado enumeração O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Não
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Sim

Recusa

Uma recusa do modelo.

Nome Tipo Descrição Obrigatório Predefinido
recusa cadeia (de caracteres) A explicação da recusa a partir do modelo.
Sim
tipo enumeração O tipo de recusa. Sempre refusal.

Valores possíveis: refusal
Sim

resposta

Nome Tipo Descrição Obrigatório Predefinido
criado_em número Marca de data/hora Unix (em segundos) de quando esta Resposta foi criada.
Sim
erro ResponseError Um objeto de erro retornado quando o modelo não consegue gerar uma resposta.
Sim
ID cadeia (de caracteres) Identificador exclusivo para esta resposta.
Sim
detalhes incompletos objecto Detalhes sobre o motivo pelo qual a resposta está incompleta.
Sim
└─ Justificação enumeração A razão pela qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
Não
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Sim
max_output_tokens (máximo de tokens de saída) número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
Não
metadados Metadados Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel.

As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Sim
modelo cadeia (de caracteres) Modelo utilizado para gerar as respostas. Sim
objecto enumeração O tipo de objeto deste recurso - sempre definido como response.

Valores possíveis: response
Sim
output matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a output ordem dos itens na matriz dependem da resposta do modelo.
- Em vez de aceder ao primeiro item da output matriz e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a propriedade output_text onde suportada em SDKs.
Sim
texto de saída cadeia (de caracteres) Propriedade restrita ao SDK que contém a saída de texto agregada de todos os output_text itens no output array, caso existam.
Suportado nos SDKs Python e JavaScript.
Não
chamadas_de_ferramentas_em_paralelo Booleano Se deve permitir que o modelo execute chamadas de ferramenta em paralelo.
Sim Verdade
ID_de_resposta_anterior cadeia (de caracteres) O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. Não
Fundamentação Fundamentação Apenas modelos da série O

Opções de configuração para modelos de raciocínio.
Não
estado enumeração O estado da geração de resposta. Um de completed, failed, in_progress, ou incomplete.

Valores possíveis: completed, failed, in_progress, incomplete
Não
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Sim 1
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- entradas e saídas de texto
- Saídas Estruturadas
Não
└─ formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve produzir.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam.
Não
escolha_de_ferramenta ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Sim
Ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas incorporadas
Sim
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Sim 1
truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
Não
utilização Uso da Resposta Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento de tokens de saída e o total de tokens usados.
Não
utilizador cadeia (de caracteres) Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. .
Não

ResponseAudioDeltaEvent

Emitido quando há uma resposta de áudio parcial.

Nome Tipo Descrição Obrigatório Predefinido
delta cadeia (de caracteres) Uma porção de dados de áudio da resposta codificados em Base64.
Sim
tipo enumeração O tipo de evento. Sempre response.audio.delta.

Valores possíveis: response.audio.delta
Sim

EventoConcluídoAudioResposta

Emitido quando a resposta de áudio é concluída.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de evento. Sempre response.audio.done.

Valores possíveis: response.audio.done
Sim

ResponseAudioTranscriptDeltaEvent

Emitido quando há uma transcrição parcial do áudio.

Nome Tipo Descrição Obrigatório Predefinido
delta cadeia (de caracteres) A transcrição parcial da resposta de áudio.
Sim
tipo enumeração O tipo de evento. Sempre response.audio.transcript.delta.

Valores possíveis: response.audio.transcript.delta
Sim

EventoTranscriçãoÁudioConcluídoResposta

Emitido quando a transcrição completa do áudio é concluída.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de evento. Sempre response.audio.transcript.done.

Valores possíveis: response.audio.transcript.done
Sim

ResponseCodeInterpreterCallCodeDeltaEvent

Emitido quando um trecho de código parcial é adicionado pelo interpretador de código.

Nome Tipo Descrição Obrigatório Predefinido
delta cadeia (de caracteres) O trecho de código parcial adicionado pelo interpretador de código.
Sim
índice_de_output número inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.delta.

Valores possíveis: response.code_interpreter_call.code.delta
Sim

EventoDeConclusãoDoCódigoDeChamadaDoInterpretadorDeCódigosDeResposta

Emitido quando a saída do trecho de código é finalizada pelo interpretador de código.

Nome Tipo Descrição Obrigatório Predefinido
código cadeia (de caracteres) A saída final do trecho de código pelo interpretador de código.
Sim
índice_de_output número inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.done.

Valores possíveis: response.code_interpreter_call.code.done
Sim

ResponseCodeInterpreterCallCompletedEvent

Emitido quando a chamada do interpretador de código é concluída.

Nome Tipo Descrição Obrigatório Predefinido
chamada_interpretador_de_codigo CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
índice_de_output número inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.completed.

Valores possíveis: response.code_interpreter_call.completed
Sim

ResponseCodeInterpreterCallInProgressEvent

Emitido quando uma chamada de interpretador de código está em andamento.

Nome Tipo Descrição Obrigatório Predefinido
chamada_interpretador_de_codigo CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
índice_de_output número inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.in_progress.

Valores possíveis: response.code_interpreter_call.in_progress
Sim

CódigoDeRespostaInterpreteChamadaEventoDeInterpretação

Emitido quando o interpretador de código está interpretando ativamente o trecho de código.

Nome Tipo Descrição Obrigatório Predefinido
chamada_interpretador_de_codigo CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
índice_de_output número inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Sim
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.interpreting.

Valores possíveis: response.code_interpreter_call.interpreting
Sim

EventoRespostaConcluída

Emitido quando a resposta do modelo está completa.

Nome Tipo Descrição Obrigatório Predefinido
resposta resposta Sim
tipo enumeração O tipo de evento. Sempre response.completed.

Valores possíveis: response.completed
Sim

EventoDeParteDoConteúdoDaRespostaAdicionado

Emitido quando uma nova parte de conteúdo é adicionada.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_conteúdo número inteiro O índice da parte de conteúdo que foi adicionada.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
índice_de_output número inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
parte OutputContent Sim
tipo enumeração O tipo de evento. Sempre response.content_part.added.

Valores possíveis: response.content_part.added
Sim

EventoParteConteúdoRespostaConcluído

Emitido quando uma parte do conteúdo é concluída.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_conteúdo número inteiro O índice do conteúdo da parte que está concluída.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
índice_de_output número inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Sim
parte OutputContent Sim
tipo enumeração O tipo de evento. Sempre response.content_part.done.

Valores possíveis: response.content_part.done
Sim

EventoRespostaCriada

Um evento que é emitido quando uma resposta é criada.

Nome Tipo Descrição Obrigatório Predefinido
resposta resposta Sim
tipo enumeração O tipo de evento. Sempre response.created.

Valores possíveis: response.created
Sim

Erro de Resposta

Um objeto de erro retornado quando o modelo não consegue gerar uma resposta.

Nome Tipo Descrição Obrigatório Predefinido
código ResponseErrorCode O código de erro para a resposta.
Sim
mensagem cadeia (de caracteres) Uma descrição do erro legível por humanos.
Sim

CódigoDeErroDeResposta

O código de erro para a resposta.

Propriedade Valor
Descrição O código de erro para a resposta.
Tipo cadeia (de caracteres)
Valores server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

Evento de Erro de Resposta

Emitido quando ocorre um erro.

Nome Tipo Descrição Obrigatório Predefinido
código cadeia (de caracteres) O código de erro.
Sim
mensagem cadeia (de caracteres) A mensagem de erro.
Sim
parâmetro cadeia (de caracteres) O parâmetro de erro.
Sim
tipo enumeração O tipo de evento. Sempre error.

Valores possíveis: error
Sim

EventoFalhaResposta (ResponseFailedEvent)

Um evento que é emitido quando uma resposta falha.

Nome Tipo Descrição Obrigatório Predefinido
resposta resposta Sim
tipo enumeração O tipo de evento. Sempre response.failed.

Valores possíveis: response.failed
Sim

EventoDePesquisaDeFicheirosRespostaConcluída

Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_item cadeia (de caracteres) O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada.
Sim
índice_de_output número inteiro O índice do item de saída em que é iniciada a chamada de pesquisa no arquivo.
Sim
tipo enumeração O tipo de evento. Sempre response.file_search_call.completed.

Valores possíveis: response.file_search_call.completed
Sim

ResponseFileSearchCallInProgressEvent

Emitido quando uma chamada de pesquisa de arquivo é iniciada.

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_item cadeia (de caracteres) O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada.
Sim
índice_de_output número inteiro O índice do item de saída em que é iniciada a chamada de pesquisa no arquivo.
Sim
tipo enumeração O tipo de evento. Sempre response.file_search_call.in_progress.

Valores possíveis: response.file_search_call.in_progress
Sim

RespostaFicheiroPesquisaChamadaAProcurarEvento

Emitido quando uma pesquisa de arquivo está sendo pesquisada no momento.

Nome Tipo Descrição Obrigatório Predefinido
identificador_do_item cadeia (de caracteres) O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada.
Sim
índice_de_output número inteiro O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando.
Sim
tipo enumeração O tipo de evento. Sempre response.file_search_call.searching.

Valores possíveis: response.file_search_call.searching
Sim

ResponseFunctionCallArgumentsDeltaEvent

Emitido quando há um delta parcial de argumentos de chamada de função.

Nome Tipo Descrição Obrigatório Predefinido
delta cadeia (de caracteres) Os argumentos delta de chamada de função que são adicionados.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado.
Sim
índice_de_output número inteiro O índice do item de saída ao qual é somado o delta dos argumentos de chamada de função.
Sim
tipo enumeração O tipo de evento. Sempre response.function_call_arguments.delta.

Valores possíveis: response.function_call_arguments.delta
Sim

EventoDeConcluídoDosArgumentosDaChamadaDeFunçãoResposta

Emitido quando os argumentos de chamada de função são finalizados.

Nome Tipo Descrição Obrigatório Predefinido
Argumentos cadeia (de caracteres) Os argumentos de chamada de função. Sim
identificador_do_item cadeia (de caracteres) A ID do item. Sim
índice_de_output número inteiro O índice do item de saída. Sim
tipo enumeração
Valores possíveis: response.function_call_arguments.done
Sim

EventoDeRespostaEmProgresso

Emitido quando a resposta está em andamento.

Nome Tipo Descrição Obrigatório Predefinido
resposta resposta Sim
tipo enumeração O tipo de evento. Sempre response.in_progress.

Valores possíveis: response.in_progress
Sim

EventoRespostaIncompleta

Um evento que é emitido quando uma resposta termina como incompleta.

Nome Tipo Descrição Obrigatório Predefinido
resposta resposta Sim
tipo enumeração O tipo de evento. Sempre response.incomplete.

Valores possíveis: response.incomplete
Sim

listaDeItensDeResposta

Uma lista de itens de resposta.

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Uma lista de itens usados para gerar essa resposta. Sim
first_id cadeia (de caracteres) A ID do primeiro item da lista. Sim
tem_mais Booleano Se há mais itens disponíveis. Sim
last_id cadeia (de caracteres) A ID do último item da lista. Sim
objecto enumeração O tipo de objeto retornado, deve ser list.
Valores possíveis: list
Sim

Modalidades de resposta

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos são capazes de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para este componente.

RespostaModalidadesApenas texto

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos são capazes de gerar texto, que é o padrão:

["text"]

Esta API em breve suportará outras modalidades de saída, incluindo áudio e imagens.

Nenhuma propriedade definida para este componente.

EventoAdicionadoItemSaídaResposta

Emitido quando um novo item de saída é adicionado.

Nome Tipo Descrição Obrigatório Predefinido
item OutputItem Sim
índice_de_output número inteiro O índice do item de saída que foi adicionado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_item.added.

Valores possíveis: response.output_item.added
Sim

EventoRespostaSaídaItemConcluído

Emitido quando um item de saída é marcado como concluído.

Nome Tipo Descrição Obrigatório Predefinido
item OutputItem Sim
índice_de_output número inteiro O índice do item de saída que foi marcado como concluído.
Sim
tipo enumeração O tipo de evento. Sempre response.output_item.done.

Valores possíveis: response.output_item.done
Sim

PropriedadesDeResposta

Nome Tipo Descrição Obrigatório Predefinido
Instruções cadeia (de caracteres) Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Não
max_output_tokens (máximo de tokens de saída) número inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
Não
ID_de_resposta_anterior cadeia (de caracteres) O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. Não
Fundamentação Fundamentação Apenas modelos da série O

Opções de configuração para modelos de raciocínio.
Não
enviar SMS objecto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais:
- entradas e saídas de texto
- Saídas Estruturadas
Não
└─ formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve produzir.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam.
Não
escolha_de_ferramenta ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Não
Ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas incorporadas
Não
truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
Não

EventoDeltaRecusaResposta

Emitido quando há um texto de recusa parcial.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_conteúdo número inteiro O índice da parte de conteúdo à qual o texto de recusa é adicionado.
Sim
delta cadeia (de caracteres) O texto de recusa que é adicionado.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída ao qual o texto de recusa é adicionado.
Sim
índice_de_output número inteiro O índice do item de saída ao qual o texto de recusa é adicionado.
Sim
tipo enumeração O tipo de evento. Sempre response.refusal.delta.

Valores possíveis: response.refusal.delta
Sim

EventoRespostaRecusaConcluída

Emitido quando o texto de recusa é finalizado.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_conteúdo número inteiro O índice da parte do conteúdo onde o texto de recusa é finalizado.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída em que o texto de recusa é finalizado.
Sim
índice_de_output número inteiro O índice do item de saída em que o texto de recusa é concluído.
Sim
recusa cadeia (de caracteres) O texto de recusa finalizado.
Sim
tipo enumeração O tipo de evento. Sempre response.refusal.done.

Valores possíveis: response.refusal.done
Sim

eventoDeTransmissaoDeResposta (responseStreamEvent)

Nome Tipo Descrição Obrigatório Predefinido
anotação Anotação Sim
índice_de_anotação número inteiro O índice da anotação adicionada.
Sim
Argumentos cadeia (de caracteres) Os argumentos de chamada de função. Sim
código cadeia (de caracteres) O código de erro.
Sim
chamada_interpretador_de_codigo CodeInterpreterToolCall Uma chamada de ferramenta para executar código.
Sim
índice_de_conteúdo número inteiro O índice da parte do conteúdo em que o texto é finalizado.
Sim
delta cadeia (de caracteres) O texto delta que foi adicionado.
Sim
item OutputItem O item de saída que foi marcado como concluído.
Sim
identificador_do_item cadeia (de caracteres) O ID do item de saída onde o conteúdo de texto foi finalizado.
Sim
mensagem cadeia (de caracteres) A mensagem de erro.
Sim
índice_de_output número inteiro O índice do item de saída em que o conteúdo do texto é finalizado.
Sim
parâmetro cadeia (de caracteres) O parâmetro de erro.
Sim
parte OutputContent A parte de conteúdo que é feita.
Sim
recusa cadeia (de caracteres) O texto de recusa finalizado.
Sim
resposta resposta A resposta que estava incompleta.
Sim
enviar SMS cadeia (de caracteres) Conteúdo do texto que foi finalizado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Sim

Evento Delta de Anotação de Texto de Resposta

Emitido quando uma anotação de texto é adicionada.

Nome Tipo Descrição Obrigatório Predefinido
anotação Anotação Sim
índice_de_anotação número inteiro O índice da anotação adicionada.
Sim
índice_de_conteúdo número inteiro O índice da parte de conteúdo à qual a anotação de texto foi adicionada.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída ao qual a anotação de texto foi adicionada.
Sim
índice_de_output número inteiro O índice do item de saída ao qual a anotação de texto foi adicionada.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.annotation.added.

Valores possíveis: response.output_text.annotation.added
Sim

ResponseTextDeltaEvent

Emitido quando há um delta de texto adicional.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_conteúdo número inteiro O índice da parte de conteúdo à qual foi adicionado o delta de texto.
Sim
delta cadeia (de caracteres) O texto delta que foi adicionado.
Sim
identificador_do_item cadeia (de caracteres) A ID do item de saída ao qual o delta de texto foi adicionado.
Sim
índice_de_output número inteiro O índice do item de saída ao qual o delta de texto foi adicionado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.delta.

Valores possíveis: response.output_text.delta
Sim

ResponseTextDoneEvent

Emitido quando o conteúdo do texto é finalizado.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_conteúdo número inteiro O índice da parte do conteúdo em que o texto é finalizado.
Sim
identificador_do_item cadeia (de caracteres) O ID do item de saída onde o conteúdo de texto foi finalizado.
Sim
índice_de_output número inteiro O índice do item de saída em que o conteúdo do texto é finalizado.
Sim
enviar SMS cadeia (de caracteres) Conteúdo do texto que foi finalizado.
Sim
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Sim

Uso de Resposta

Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento de tokens de saída e o total de tokens usados.

Nome Tipo Descrição Obrigatório Predefinido
tokens_de_entrada número inteiro O número de tokens de entrada. Sim
tokens de saída número inteiro O número de tokens de saída. Sim
detalhes_dos_tokens_de_saida objecto Um detalhamento detalhado dos tokens de saída. Sim
└─ tokens de raciocínio número inteiro O número de tokens de raciocínio. Não
total de tokens número inteiro O número total de tokens usados. Sim

Captura de ecrã

Uma ação de captura de tela.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.

Valores possíveis: screenshot
Sim

Deslocar

Uma ação de rolagem.

Nome Tipo Descrição Obrigatório Predefinido
scroll_x número inteiro A distância de rolagem horizontal.
Sim
scroll_y número inteiro A distância de rolagem vertical.
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.

Valores possíveis: scroll
Sim
x número inteiro A coordenada x onde ocorreu a rolagem.
Sim
y número inteiro A coordenada y onde ocorreu a rolagem.
Sim

PararConfiguração

Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada.

Este componente pode ser um dos seguintes:

ConfiguraçãoDoFormatoDeRespostaDeTexto

Um objeto que especifica o formato que o modelo deve produzir.

A configuração { "type": "json_schema" } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam.

Este componente pode ser um dos seguintes:

TextResponseFormatJsonSchema

Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato.
Não
nome cadeia (de caracteres) O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64.
Não
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Sim
rigoroso Booleano Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true.
Não Falso
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_schema.
Valores possíveis: json_schema
Sim

Ferramenta

Este componente pode ser um dos seguintes:

FunçãoDeEscolhaDeFerramenta

Use esta opção para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Obrigatório Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada. Sim
tipo enumeração Para chamada de função, o tipo é sempre function.
Valores possíveis: function
Sim

Opções de Escolha de Ferramentas

Controla qual (se houver) ferramenta é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.

Propriedade Valor
Descrição Controla qual (se houver) ferramenta é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
Tipo cadeia (de caracteres)
Valores none
auto
required

TiposDeEscolhaDeFerramentas

Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são:
- file_search
- computer_use_preview

Valores possíveis: file_search, computer_use_preview
Sim

Tipo

Uma ação para digitar texto.

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) O texto a ser digitado.
Sim
tipo enumeração Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.

Valores possíveis: type
Sim

PedidoDeAtualizaçãoDeAtributosDeFicheiroDeArmazenamentoVetorial

Nome Tipo Descrição Obrigatório Predefinido
atributos VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números.
Sim

Citação de URL

Uma citação para um recurso da Web usado para gerar uma resposta de modelo.

Nome Tipo Descrição Obrigatório Predefinido
índice_final número inteiro O índice do último caractere da citação de URL na mensagem.
Sim
start_index número inteiro O índice do primeiro caractere da citação de URL na mensagem.
Sim
título cadeia (de caracteres) O título do recurso Web.
Sim
tipo enumeração O tipo de citação de URL. Sempre url_citation.

Valores possíveis: url_citation
Sim
URL cadeia (de caracteres) O URL do recurso Web.
Sim

VectorStoreFileAttributes

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números.

Nenhuma propriedade definida para este componente.

VectorStoreFileContentResponse

Representa o conteúdo analisado de um arquivo de armazenamento vetorial.

Nome Tipo Descrição Obrigatório Predefinido
dados matriz Conteúdo analisado do arquivo. Sim
tem_mais Booleano Indica se há mais páginas de conteúdo para buscar. Sim
próxima_página cadeia (de caracteres) O token para a próxima página, se houver. Sim
objecto enumeração O tipo de objeto, que é sempre vector_store.file_content.page
Valores possíveis: vector_store.file_content.page
Sim

VectorStoreSearchRequest

Nome Tipo Descrição Obrigatório Predefinido
filtros ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. Não
máximo_número_de_resultados número inteiro O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. Não 10
consulta cadeia de caracteres ou matriz Uma cadeia de caracteres de consulta para uma pesquisa Sim
opções_de_classificação objecto Opções de classificação para pesquisa. Não
└─ classificador enumeração Valores possíveis: auto, default-2024-11-15 Não
└─ limiar_de_pontuação número Não 0
reformular_consulta Booleano Se a consulta de linguagem natural deve ser reescrita para pesquisa vetorial. Não Falso

Objeto de Conteúdo do Resultado de Pesquisa da Loja de Vetores

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) O conteúdo de texto retornado da pesquisa. Sim
tipo enumeração O tipo de conteúdo.
Valores possíveis: text
Sim

VectorStoreSearchResultItem

Nome Tipo Descrição Obrigatório Predefinido
atributos VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números.
Sim
conteúdo matriz Partes de conteúdo do arquivo. Sim
identificação_de_ficheiro cadeia (de caracteres) A ID do arquivo de armazenamento vetorial. Sim
nome do ficheiro cadeia (de caracteres) O nome do arquivo de armazenamento vetorial. Sim
classificação número A pontuação de similaridade do resultado. Sim

PáginaDeResultadosDePesquisaDaLojaDeVetores

Nome Tipo Descrição Obrigatório Predefinido
dados matriz A lista de itens de resultados de pesquisa. Sim
tem_mais Booleano Indica se há mais resultados para buscar. Sim
próxima_página cadeia (de caracteres) O token para a próxima página, se houver. Sim
objecto enumeração O tipo de objeto, que é sempre vector_store.search_results.page
Valores possíveis: vector_store.search_results.page
Sim
search_query matriz Sim

Identificações de Voz Partilhadas

Nenhuma propriedade definida para este componente.

Aguarde

Uma ação de espera.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração Especifica o tipo de evento. Para uma ação de espera, esta propriedade é sempre definida como wait.

Valores possíveis: wait
Sim

Esforço para Raciocinar

Apenas modelos da série O

Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.

Propriedade Valor
Descrição Apenas modelos da série O

Restringe o esforço no raciocínio para modelos de raciocínio.
Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Tipo cadeia (de caracteres)
Predefinição meio
Valores low
medium
high

eventoErro

Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.

Nome Tipo Descrição Obrigatório Predefinido
dados erro Sim
evento cadeia (de caracteres) Sim

Enum do evento: ErrorEventEnum

Valor Descrição
erro

doneEvento

Ocorre quando um fluxo termina.

Nome Tipo Descrição Obrigatório Predefinido
dados cadeia (de caracteres) Sim
evento cadeia (de caracteres) Sim

evento Enum: DoneEventEnum

Valor Descrição
concluído

Enum de dados: DoneEventDataEnum

Valor Descrição
[CONCLUÍDO]

Próximos passos

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.