Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.
Especificações da API
O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:
- Plano de controlo
- Plano de dados - criação
- Plano de dados - inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem o seu próprio conjunto exclusivo de visualizações e de versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.
Importante
Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia de ciclo de vida da API.
API | Versão de pré-visualização mais recente | Última versão do GA | Especificações | Descrição |
---|---|---|---|---|
Plano de controlo | 2024-06-01-preview |
2024-10-01 |
Arquivos de especificações | O Azure OpenAI partilha um plano de controlo comum com todos os outros serviços. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure. |
Plano de dados - criação | 2025-04-01-preview |
2024-10-21 |
Arquivos de especificações | A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão, o lote e determinadas consultas de nível de modelo |
Plano de dados - inferência | 2025-04-01-preview |
2024-10-21 |
Arquivos de especificações | A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, áudio, em seus dados, Dall-e, assistentes, etc. |
Autenticação
O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a
api-key
chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos numa solicitação como cabeçalho
Authorization
. O token fornecido deve ser precedido porBearer
, por exemploBearer YOUR_AUTH_TOKEN
, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão da API REST
As APIs de serviço são versionadas através do parâmetro de consulta api-version
. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a 2025-04-01-preview
versão de pré-visualização da especificação de inferência do plano de dados do Azure OpenAI.
Se você estiver procurando documentação sobre a versão mais recente da API do GA, consulte a API de inferência de plano de dados do GA mais recente
Finalizações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
melhor_de | número inteiro | Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.Quando usado com n , best_of controla o número de completamentos candidatos e n especifica quantos devem ser retornados — best_of deve ser maior que n .Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
eco | Booleano | Echo de volta o prompt, além da conclusão | Não | Falso |
penalização de frequência | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. | Não | 0 |
logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhum |
Logprobs | número inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhum |
máximo de tokens | número inteiro | O número máximo de tokens que pode ser gerado no decorrer da conclusão. A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo. |
Não | 16 |
n | número inteiro | Quantas completações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
penalização por presença | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | Não | 0 |
avisar | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Sim | |
sementes | número inteiro | Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
Não | |
pare | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. | Não | |
fluxo | Booleano | Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor de dados únicos, à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] .
Exemplo de código Python. |
Não | Falso |
sufixo | cadeia (de caracteres) | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct . |
Não | Nenhum |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | createCompletionResponse |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | A ID de implantação do modelo que foi implantado. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dimensões | número inteiro | O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. |
Não | |
formato de codificação | cadeia (de caracteres) | O formato para retornar as incorporações. Tanto pode ser float como base64 . O padrão é float . |
Não | |
dados introduzidos | cadeia de caracteres ou matriz | Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8192 tokens para text-embedding-ada-002 ), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2048 dimensões ou menos. |
Sim | |
tipo_de_entrada | cadeia (de caracteres) | tipo de entrada de pesquisa de incorporação a ser usada | Não | |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | objecto |
Exemplos
Exemplo
Retorne as incorporações para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusão do bate-papo - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Cria uma conclusão para a mensagem de chat
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
áudio | objecto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"] . |
Não | |
└─ formato | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav , mp3 , flac , opus , ou pcm16 . Valores possíveis: wav , mp3 , flac , opus , , pcm16 |
Não | |
└─ voz | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy , echo , fable , onyx , nova e shimmer .Valores possíveis: alloy , echo , fable , onyx , , nova , shimmer |
Não | |
fontes_de_dados | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
Não | |
penalização de frequência | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
Não | |
funções | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não | |
logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
Não | Nenhum |
Logprobs | Booleano | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message . |
Não | Falso |
tokens_máximos_de_conclusão | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. | Não | |
máximo de tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
Não | |
mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. | Sim | |
metadados | objecto | Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. | Não | |
Modalidades | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão: ["text"] O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
Não | |
n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. |
Não | 1 |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
predição | Previsão-Conteúdo | Configuração para uma saída prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | Não | |
penalização por presença | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
esforço de raciocínio | enumeração |
Apenas modelos O1 Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low , medium e high . Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low , medium , high |
Não | |
formato_de_resposta | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, que garantem a correspondência do modelo ao esquema JSON fornecido.Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
sementes | número inteiro | Este recurso está em versão Beta. Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
Não | |
pare | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. |
Não | |
armazenar | Booleano | Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | Não | |
fluxo | Booleano | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos apenas de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código Python. |
Não | Falso |
opções_de_transmissão | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhum |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
escolha_de_ferramenta | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
Não | |
top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada.
logprobs deve ser definido como true se este parâmetro for usado. |
Não | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
contexto_de_segurança_do_utilizador | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | objecto |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados vetoriais de imagem da Pesquisa do Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o banco de dados Mongo fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcreve o áudio para o idioma de entrada.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiro | cadeia (de caracteres) | O objeto do arquivo de áudio a ser transcrito. | Sim | |
linguagem | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | Não | |
avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
formato_de_resposta | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
granularidade_de_timestamp[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word , ou segment . Nota: Não há latência adicional nos carimbos de data/hora para segmentos, mas a geração de carimbos de data/hora para palavras resulta em latência adicional. |
Não | ['segmento'] |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | objecto | |
texto simples | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era um dos text , vtt ou srt ). |
Exemplos
Exemplo
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcreve e traduz áudio de entrada para texto em inglês.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiro | cadeia (de caracteres) | O arquivo de áudio a ser traduzido. | Sim | |
avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | Não | |
formato_de_resposta | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | objecto | |
texto simples | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Gera áudio a partir do texto de entrada.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados introduzidos | cadeia (de caracteres) | O texto para sintetizar áudio. O comprimento máximo é de 4096 caracteres. | Sim | |
formato_de_resposta | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3 , opus , aac , flac , , wav , pcm |
Não | |
velocidade | número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0 .
1.0 é o padrão. |
Não | 1.0 |
voz | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: alloy , echo , fable , onyx , , nova , shimmer |
Sim |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
aplicação/octet-stream | cadeia (de caracteres) |
Exemplos
Exemplo
Sintetiza o áudio do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de status: 200
{
"body": "101010101"
}
Gerações de imagens - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Gera um lote de imagens a partir de uma legenda de texto numa determinada implementação de um modelo DALLE ou gpt-image-1.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
em segundo plano | imagem fundo | Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1. | Não | automóvel |
n | número inteiro | O número de imagens a gerar. Para DALL-E-3, é suportado apenas n=1. | Não | 1 |
compressão_de_saída | número inteiro | O nível de compressão (0-100%) para as imagens geradas. Este parâmetro só é suportado para gpt-image-1 com o formato de saída jpeg. | Não | 100 |
formato_de_saida | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1. | Não | PNG |
avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para gpt-image-1 e 4000 caracteres para dall-e-3 | Sim | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | automóvel |
formato_de_resposta | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | URL |
tamanho | imageSize | O tamanho das imagens geradas. | Não | automóvel |
estilo | imageStyle | O estilo das imagens geradas. Apenas suportado para dall-e-3. | Não | vívido |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
Respostas
Código de status: 200
Descrição: Ok
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | dalleErrorResponse |
Exemplos
Exemplo
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Gerações de imagens - Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita uma imagem a partir de uma legenda de texto numa determinada implementação do modelo gpt-image-1
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador de implantação | caminho | Sim | cadeia (de caracteres) | |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
imagem | cadeia de caracteres ou matriz | A(s) imagem(ns) a editar. Deve ser um arquivo de imagem suportado ou uma matriz de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. | Sim | |
máscara | cadeia (de caracteres) | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões que a imagem. | Não | |
n | número inteiro | O número de imagens a gerar. | Não | 1 |
avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. | Sim | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | automóvel |
formato_de_resposta | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | URL |
tamanho | imageSize | O tamanho das imagens geradas. | Não | automóvel |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
Respostas
Código de status: 200
Descrição: Ok
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | dalleErrorResponse |
Lista - Assistentes
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retorna uma lista de assistentes.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listAssistantsResponse |
Exemplos
Exemplo
Retorna uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar - Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crie um assistente com um modelo e instruções.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | Sim | ||
nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
formato_de_resposta | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
└─ armazenamento_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | assistantObject |
Exemplos
Exemplo
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obter - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera um assistente.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_do_assistente | caminho | Sim | cadeia (de caracteres) | O ID do assistente a ser recuperado. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | assistantObject |
Exemplos
Exemplo
Recupera um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica um assistente.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_do_assistente | caminho | Sim | cadeia (de caracteres) | A identificação do assistente a ser modificada. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | Não | ||
nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | assistantObject |
Exemplos
Exemplo
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Excluir um assistente.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_do_assistente | caminho | Sim | cadeia (de caracteres) | O identificador do assistente a ser eliminado. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteAssistantResponse |
Exemplos
Exemplo
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar - Thread
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Crie um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
mensagens | matriz | Uma lista de mensagens para iniciar o thread. | Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
recursos_ferramenta | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não | |
└─ armazenamento_de_vetores | matriz | Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | threadObject |
Exemplos
Exemplo
Cria um thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obter - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID do tópico que deve ser recuperado. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | threadObject |
Exemplos
Exemplo
Recupera um thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID do tópico a ser modificado. Apenas o metadata pode ser modificado. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
recursos_ferramenta | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | threadObject |
Exemplos
Exemplo
Modifica um thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Exclua um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | A ID do thread a ser excluído. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteThreadResponse |
Exemplos
Exemplo
Exclui um thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista - Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retorna uma lista de mensagens para um determinado thread.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID dos threads aos quais as mensagens pertencem. |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
identificador_de_execução | consulta | Não | cadeia (de caracteres) | Filtre as mensagens pelo ID de execução que as gerou. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listMessagesResponse |
Exemplos
Exemplo
Listar mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Criar uma mensagem.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | A ID dos threads para os quais criar uma mensagem. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. | Não | |
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Sim | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
função | cadeia (de caracteres) | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user : Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant : Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Sim |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | messageObject |
Exemplos
Exemplo
Criar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obter - Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recuperar uma mensagem.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | A ID dos threads aos quais esta mensagem pertence. |
ID da mensagem | caminho | Sim | cadeia (de caracteres) | O ID da mensagem a ser recuperada. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | messageObject |
Exemplos
Exemplo
Recuperar uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica uma mensagem.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | A ID do thread ao qual esta mensagem pertence. |
ID da mensagem | caminho | Sim | cadeia (de caracteres) | O ID da mensagem a ser modificada. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | messageObject |
Exemplos
Exemplo
Modificar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar - Thread e Executar
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crie um thread e execute-o em uma solicitação.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_assistente | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Sim | |
Instruções | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
tokens_máximos_de_conclusão | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
max_prompt_tokens (número máximo de tokens de aviso) | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
fluxo | Booleano | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
opções_de_transmissão | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhum |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
conversa | createThreadRequest | Não | ||
escolha_de_ferramenta | assistantsApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
estratégia de truncamento | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject |
Exemplos
Exemplo
Crie um thread e execute-o em uma solicitação.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista - Execuções
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retorna uma lista de execuções pertencentes a um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | A ID do thread ao qual a execução pertence. |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listRunsResponse |
Exemplos
Exemplo
Retorna uma lista de execuções pertencentes a um thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crie uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID do tópico a executar. |
incluir[] | consulta | Não | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
instruções adicionais | cadeia (de caracteres) | Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
mensagens_adicionais | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | Não | |
identificador_do_assistente | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Sim | |
Instruções | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
tokens_máximos_de_conclusão | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
max_prompt_tokens (número máximo de tokens de aviso) | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
fluxo | Booleano | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
escolha_de_ferramenta | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
Ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
estratégia de truncamento | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject |
Exemplos
Exemplo
Crie uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obter - Executar
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID dos threads que foram executados. |
identificador_de_execução | caminho | Sim | cadeia (de caracteres) | O identificador da execução a ser recuperada. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject |
Exemplos
Exemplo
Consegue uma corrida.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID dos threads que foram executados. |
identificador_de_execução | caminho | Sim | cadeia (de caracteres) | O ID da execução a ser modificada. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject |
Exemplos
Exemplo
Modifica uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar - Saídas da ferramenta para executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando uma execução tem o status: "requires_action"
e required_action.type
é submit_tool_outputs
, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | A ID dos threads aos quais essa execução pertence. |
identificador_de_execução | caminho | Sim | cadeia (de caracteres) | O ID da execução que requere a submissão da saída da ferramenta. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
fluxo | Booleano | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
saídas_da_ferramenta | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Sim |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject |
Exemplos
Exemplo
Quando uma execução tem o status: "requires_action"
e required_action.type
é submit_tool_outputs
, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela uma execução que é in_progress
.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID do thread ao qual esta execução pertence. |
identificador_de_execução | caminho | Sim | cadeia (de caracteres) | A identificação da execução a ser cancelada. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject |
Exemplos
Exemplo
Cancela uma execução que é in_progress
.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista - Executar etapas
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retorna uma lista de etapas de execução pertencentes a uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID do thread ao qual pertencem a execução e as etapas de execução. |
identificador_de_execução | caminho | Sim | cadeia (de caracteres) | O ID da execução a que as etapas de execução pertencem. |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
Versão da API | consulta | Sim | cadeia (de caracteres) | |
incluir[] | consulta | Não | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listRunStepsResponse |
Exemplos
Exemplo
Retorna uma lista de etapas de execução pertencentes a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obter - Executar etapa
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera uma etapa de execução.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
ID de thread | caminho | Sim | cadeia (de caracteres) | O ID do thread a qual a execução e etapa de execução pertence. |
identificador_de_execução | caminho | Sim | cadeia (de caracteres) | O identificador da execução à qual a etapa de execução pertence. |
step_id | caminho | Sim | cadeia (de caracteres) | O identificador do passo de execução a ser recuperado. |
incluir[] | consulta | Não | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
Versão da API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runStepObject |
Exemplos
Exemplo
Recupera uma etapa de execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista - Vetor Stores
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retorna uma lista de repositórios vetoriais.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listVectorStoresResponse |
Exemplos
Exemplo
Retorna uma lista de repositórios vetoriais.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar - Loja de vetores
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crie um repositório vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
Não | |
expira após | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
identificadores_de_arquivo | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
nome | cadeia (de caracteres) | O nome do repositório de vetores. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject |
Exemplos
Exemplo
Cria um repositório vetorial.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obter - Loja de vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera um armazenamento de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | O ID do repositório de vetores a ser recuperado. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject |
Exemplos
Exemplo
Recupera um armazenamento de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar - Vetor Store
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica um armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | O ID do repositório de vetores a ser modificado. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
expira após | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
nome | cadeia (de caracteres) | O nome do repositório de vetores. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject |
Exemplos
Exemplo
Modifica um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Excluir - Vetor Store
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Exclua um repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | O identificador do repositório de vetores a eliminar. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteVectorStoreResponse |
Exemplos
Exemplo
Exclui um repositório vetorial.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista - Arquivos de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual os arquivos pertencem. |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
filtro | consulta | Não | cadeia (de caracteres) Valores possíveis: in_progress , completed , failed , cancelled |
Filtrar por estado do ficheiro. Um de in_progress , completed , failed , cancelled . |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemplos
Exemplo
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Arquivo de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do repositório de vetores para o qual criar um arquivo. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não | |
identificação_de_ficheiro | cadeia (de caracteres) | Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject |
Exemplos
Exemplo
Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obter - Arquivo de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera um arquivo de armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do repositório vetorial ao qual o arquivo pertence. |
identificação_de_ficheiro | caminho | Sim | cadeia (de caracteres) | A ID do arquivo que está sendo recuperado. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject |
Exemplos
Exemplo
Recupera um arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir - Arquivo de armazenamento vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do repositório vetorial ao qual o arquivo pertence. |
identificação_de_ficheiro | caminho | Sim | cadeia (de caracteres) | A ID do arquivo a ser excluído. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteVectorStoreFileResponse |
Exemplos
Exemplo
Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
AtualizarAtributosDoFicheiroDeArmazenamentoDeVetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Atualizar atributos em um arquivo de armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o arquivo pertence. |
identificação_de_ficheiro | caminho | Sim | cadeia (de caracteres) | A ID do arquivo para atualizar atributos. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
atributos | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números. |
Sim |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject |
Recuperar conteúdo do arquivo de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupere o conteúdo analisado de um arquivo de armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | O ID do repositório de vetores. |
identificação_de_ficheiro | caminho | Sim | cadeia (de caracteres) | A ID do arquivo dentro do repositório de vetores. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | VectorStoreFileContentResponse |
Procurar no armazenamento de vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Pesquise partes relevantes em um repositório vetorial com base em um filtro de atributos de consulta e arquivo.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | O ID do repositório de vetores a ser pesquisado. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtros | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | Não | |
máximo_número_de_resultados | número inteiro | O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. | Não | 10 |
consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Sim | |
opções_de_classificação | objecto | Opções de classificação para pesquisa. | Não | |
└─ classificador | enumeração | Valores possíveis: auto , default-2024-11-15 |
Não | |
└─ limiar_de_pontuação | número | Não | 0 | |
reformular_consulta | Booleano | Se a consulta de linguagem natural deve ser reescrita para pesquisa vetorial. | Não | Falso |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | VectorStoreSearchResultsPage |
Criar - Lote de arquivos de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crie um lote de arquivo de armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | O ID do repositório vetorial para o qual criar um lote de ficheiros. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não | |
identificadores_de_arquivo | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject |
Exemplos
Exemplo
Crie um lote de arquivo de armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obter - Vetor Store File Batch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera um lote de arquivo de armazenamento vetorial.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o lote de arquivos pertence. |
batch_id | caminho | Sim | cadeia (de caracteres) | O ID do lote de ficheiros que está a ser recuperado. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject |
Exemplos
Exemplo
Recupera um lote de arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar - Lote de arquivos de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o lote de arquivos pertence. |
batch_id | caminho | Sim | cadeia (de caracteres) | O identificador do lote de arquivos a cancelar. |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject |
Exemplos
Exemplo
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista - Arquivos em lote de arquivos de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de armazenamento vetorial em um lote.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_armazenamento_vetor | caminho | Sim | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual os arquivos pertencem. |
batch_id | caminho | Sim | cadeia (de caracteres) | A ID do lote de arquivos ao qual os arquivos pertencem. |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
filtro | consulta | Não | cadeia (de caracteres) Valores possíveis: in_progress , completed , failed , cancelled |
Filtrar por estado do ficheiro. Um de in_progress , completed , failed , cancelled . |
Versão da API | consulta | Sim | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemplos
Exemplo
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Sessão em Tempo Real
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crie um token de API efêmero para uso em aplicativos do lado do cliente com a API em tempo real. Pode ser configurado com os mesmos parâmetros de sessão que o evento do session.update
cliente.
Ele responde com um objeto de sessão, além de uma client_secret
chave que contém um token de API efêmero utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
formato_de_entrada_de_áudio | enumeração | O formato de entrada de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw .Para pcm16 , o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16 , g711_ulaw , g711_alaw |
Não | |
redução_de_ruído_de_entrada_áudio | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
Não | |
└─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field , far_field |
Não | |
transcrição_de_áudio_de_entrada | objecto | Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do ponto de extremidade das transcrições e deve ser tratada como orientação sobre o conteúdo do áudio de entrada, em vez de exatamente o que o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
Não | |
└─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) en melhorará a precisão e a latência. |
Não | |
└─ modelo | cadeia (de caracteres) | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe , gpt-4o-mini-transcribe e whisper-1 . |
Não | |
└─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1 , o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
Não | |
Instruções | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão. |
Não | |
tokens_de_output_de_resposta_máxima | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf . |
Não | |
Modalidades | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
Não | ||
modelo | cadeia (de caracteres) | O nome da implementação utilizada para esta sessão. |
Não | |
formato_de_áudio_de_saida | enumeração | O formato de saída de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw .Para pcm16 , o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16 , g711_ulaw , g711_alaw |
Não | |
temperatura | número | Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para o melhor desempenho. |
Não | 0.8 |
escolha_de_ferramenta | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto , none , required , ou especificar uma função. |
Não | automóvel |
Ferramentas | matriz | Ferramentas (funções) disponíveis para o modelo. | Não | |
detecção de viragem | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm , o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
Não | |
└─ criar_resposta | Booleano | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. |
Não | Verdade |
└─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad . A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium .Valores possíveis: low , medium , high , auto |
Não | |
└─ resposta_de_interrupção | Booleano | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto ) quando ocorre um evento de início de VAD. |
Não | Verdade |
└─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad . Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
Não | |
└─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad . Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
Não | |
└─ limiar | número | Usado apenas para o modo server_vad . Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
Não | |
└─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad , semantic_vad |
Não | |
voz | VoiceIdsShared | Não |
Respostas
Código de status: 200
Descrição: Sessão criada com êxito.
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | RealtimeSessionCreateResponse |
Criar - Sessão de Transcrição em Tempo Real
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crie um token de API efêmero para uso em aplicativos do lado do cliente com a API em tempo real especificamente para transcrições em tempo real.
Pode ser configurado com os mesmos parâmetros de sessão que o evento do transcription_session.update
cliente.
Ele responde com um objeto de sessão, além de uma client_secret
chave que contém um token de API efêmero utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
incluem | matriz | O conjunto de itens a incluir na transcrição. Os itens disponíveis atualmente são: - item.input_audio_transcription.logprobs |
Não | |
formato_de_entrada_de_áudio | enumeração | O formato de entrada de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw .Para pcm16 , o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16 , g711_ulaw , g711_alaw |
Não | |
redução_de_ruído_de_entrada_áudio | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
Não | |
└─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field , far_field |
Não | |
transcrição_de_áudio_de_entrada | objecto | Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
Não | |
└─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) en melhorará a precisão e a latência. |
Não | |
└─ modelo | enumeração | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe , gpt-4o-mini-transcribe e whisper-1 .Valores possíveis: gpt-4o-transcribe , gpt-4o-mini-transcribe , whisper-1 |
Não | |
└─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1 , o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
Não | |
Modalidades | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
Não | ||
detecção de viragem | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm , o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
Não | |
└─ criar_resposta | Booleano | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
└─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad . A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium .Valores possíveis: low , medium , high , auto |
Não | |
└─ resposta_de_interrupção | Booleano | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto ) quando ocorre um evento de início de VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
└─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad . Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
Não | |
└─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad . Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
Não | |
└─ limiar | número | Usado apenas para o modo server_vad . Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
Não | |
└─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad , semantic_vad |
Não |
Respostas
Código de status: 200
Descrição: Sessão criada com êxito.
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | RealtimeTranscriptionSessionCreateResponse |
Respostas
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Cria uma resposta de modelo.
Órgão do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
incluem | matriz | Não | ||
dados introduzidos | cadeia de caracteres ou matriz | Entradas de modelo | Sim | |
Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id , as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Não | |
max_output_tokens (máximo de tokens de saída) | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
Não | |
chamadas_de_ferramentas_em_paralelo | Booleano | Se deve permitir que o modelo execute chamadas de ferramenta em paralelo. |
Não | Verdade |
ID_de_resposta_anterior | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversação. |
Não | |
Fundamentação | Fundamentação |
Apenas modelos da série O Opções de configuração para modelos de raciocínio. |
Não | |
armazenar | Booleano | Se a resposta do modelo gerado deve ser armazenada para recuperação posterior via API. |
Não | Verdade |
fluxo | Booleano | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. Consulte a seção Streaming abaixo para obter mais informações. |
Não | Falso |
enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - Entradas e saídas de texto - Saídas Estruturadas |
Não | |
└─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
Não | |
escolha_de_ferramenta | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Não | |
Ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o Capacidades do modelo |
Não | |
truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto : Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto , disabled |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | resposta | |
texto/fluxo de eventos | responseStreamEvent |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
API de respostas - itens de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera uma resposta do modelo com a ID fornecida.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_resposta | caminho | Sim | cadeia (de caracteres) | O ID da resposta a ser recuperada. |
incluem | consulta | Não | matriz | Campos adicionais a incluir na resposta. Consulte o parâmetro include para a criação de resposta acima para obter mais informações. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | resposta |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Excluir resposta
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Exclui uma resposta do modelo com o ID fornecido.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_resposta | caminho | Sim | cadeia (de caracteres) | O ID da resposta a eliminar. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Código de status: 404
Descrição: Não encontrado
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | erro |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
API de respostas - lista de itens de resposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retorna uma lista de itens de entrada para uma determinada resposta.
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Descrição |
---|---|---|---|---|
ponto final | caminho | Sim | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
identificador_de_resposta | caminho | Sim | cadeia (de caracteres) | O ID da resposta para obter os itens de entrada. |
limite | consulta | Não | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
Ordem / Encomenda | consulta | Não | cadeia (de caracteres) Valores possíveis: asc , desc |
A ordem em que os itens de entrada devem ser retornados. A predefinição é asc .- asc : Retorne os itens de entrada em ordem crescente.- desc : Retorne os itens de entrada em ordem decrescente. |
depois de | consulta | Não | cadeia (de caracteres) | Um ID de item para listar itens depois, usado na paginação. |
antes | consulta | Não | cadeia (de caracteres) | Um ID de item usado para listar itens anteriores na paginação. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
Nome | Obrigatório | Tipo | Descrição |
---|---|---|---|
Autorização | Verdade | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token} Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com Tipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize Âmbito de aplicação: https://cognitiveservices.azure.com/.default |
chave de API | Verdade | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | responseItemList |
Componentes
Resposta de Erro
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
erro | erro | Não |
Base de Dados de Erros
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | cadeia (de caracteres) | Não | ||
mensagem | cadeia (de caracteres) | Não |
erro
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
erro_interno | innerError | Erro interno com detalhes adicionais. | Não | |
parâmetro | cadeia (de caracteres) | Não | ||
tipo | cadeia (de caracteres) | Não |
erro interno
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
resultados_do_filtro_de_conteúdo | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
códigoDeErroInterno
Códigos de erro para o objeto de erro interno.
Propriedade | Valor |
---|---|
Descrição | Códigos de erro para o objeto de erro interno. |
Tipo | cadeia (de caracteres) |
Valores | ResponsibleAIPolicyViolation |
dalleErrorResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
erro | dalleError | Não |
dalleError
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
erro_interno | dalleInnerError | Erro interno com detalhes adicionais. | Não | |
parâmetro | cadeia (de caracteres) | Não | ||
tipo | cadeia (de caracteres) | Não |
dalleInnerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
resultados_do_filtro_de_conteúdo | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não | |
Proposta de Melhorias: - Certificar-se de que as frases e termos são traduzidos corretamente para refletir o mesmo significado do texto de origem. - Adaptar quaisquer termos em inglês que possam ser traduzidos naturalmente para português, preservando o seu significado. - Corrigir quaisquer questões gramaticais para aumentar a fluência e a legibilidade em português. - Usar a estrutura de frases em português natural para que a tradução soe nativa. - Verificar o uso apropriado de pontuação e registro para o português. | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. | Não |
completaçãoDoFiltroDeConteúdoIntervaloDeTexto
Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
deslocamento_de_fim_de_conclusão | número inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído da extensão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para intervalos não vazios. | Sim | |
deslocamento_início_conclusão | número inteiro | Deslocamento do ponto de código UTF32 que inicia a extensão. | Sim |
resultadoBaseFiltroDeConteúdo
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtrado | Booleano | Sim |
resultadoDeSeveridadeDoFiltroDeConteúdo
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtrado | Booleano | Sim | ||
gravidade | cadeia (de caracteres) | Não |
resultado de deteção de filtro de conteúdo
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
detetada | Booleano | Não | ||
filtrado | Booleano | Sim |
Detetado filtro de conteúdo com resultado de citação
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
citação | objecto | Não | ||
└─ URL | cadeia (de caracteres) | Não | ||
└─ licença | cadeia (de caracteres) | Não |
DeteçãoDeFiltroDeConteúdoComResultadoDeTextSpans
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
detalhes | matriz | Não |
ResultadoDeIdDeFiltroDeConteúdo
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtrado | Booleano | Sim | ||
ID | cadeia (de caracteres) | Não |
baseDeResultadosDoFiltroDeConteúdo
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
listas_de_bloqueio_personalizadas | resultadosDetalhadosDoFiltroDeConteúdo | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
erro | Base de erro | Não | ||
ódio | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
palavrões | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
automutilação | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
sexual | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
violência | resultadoDaGravidadeDoFiltroDeConteúdo | Não |
Resultados de Filtro de Conteúdo
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
listas_de_bloqueio_personalizadas | resultadosDetalhadosDoFiltroDeConteúdo | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
erro | Base de erro | Não | ||
ódio | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
ataque indireto | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
fuga da prisão | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
palavrões | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
automutilação | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
sexual | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
violência | resultadoDaGravidadeDoFiltroDeConteúdo | Não |
resultadosEscolhaFiltroConteúdo
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
listas_de_bloqueio_personalizadas | resultadosDetalhadosDoFiltroDeConteúdo | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
erro | Base de erro | Não | ||
ódio | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
palavrões | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
código_material_protegido | filtroDeConteúdoDetetadoComResultadoDeCitação | Não | ||
texto_material_protegido | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
automutilação | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
sexual | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
material não aterrado | resultadoDetetadoFiltroDeConteúdoComTextSpansDeConclusão | Não | ||
violência | resultadoDaGravidadeDoFiltroDeConteúdo | Não |
resultadosDetalhadosDoFiltroDeConteúdo
Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
detalhes | matriz | Não | ||
filtrado | Booleano | Sim |
Resultado do Filtro de Prompt
Resultados da filtragem de conteúdo para um único prompt na solicitação.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
resultados_do_filtro_de_conteúdo | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não | |
índice_de_prompt | número inteiro | Não |
promptFiltrarResultados
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.
Nenhuma propriedade definida para este componente.
Resultados do Filtro de Conteúdo do Dalle
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ódio | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
automutilação | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
sexual | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
violência | resultadoDaGravidadeDoFiltroDeConteúdo | Não |
DalleFiltroResultados
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
listas_de_bloqueio_personalizadas | resultadosDetalhadosDoFiltroDeConteúdo | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
ódio | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
fuga da prisão | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
palavrões | resultadoDetetadoDoFiltroDeConteúdo | Não | ||
automutilação | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
sexual | resultadoDaGravidadeDoFiltroDeConteúdo | Não | ||
violência | resultadoDaGravidadeDoFiltroDeConteúdo | Não |
chatConclucoesPedidoComum
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
penalização de frequência | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. | Não | 0 |
logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. | Não | |
tokens_máximos_de_conclusão | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. | Não | |
máximo de tokens | número inteiro | O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt). Isto não é compatível com os modelos da série o1. | Não | 4096 |
metadados | objecto | Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. | Não | |
penalização por presença | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | Não | 0 |
pare | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. | Não | |
armazenar | Booleano | Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | Não | |
fluxo | Booleano | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | Falso |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. | Não |
criarPedidoDeConclusão
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
melhor_de | número inteiro | Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.Quando usado com n o , best_of controla o número de candidatos concluídos e n especifica quantos devem ser retornados.
best_of deve ser maior que n .Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
eco | Booleano | Echo de volta o prompt, além da conclusão |
Não | Falso |
penalização de frequência | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhum |
Logprobs | número inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhum |
máximo de tokens | número inteiro | O número máximo de tokens que pode ser gerado no decorrer da conclusão. A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo. |
Não | 16 |
n | número inteiro | Quantas completações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
penalização por presença | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
avisar | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Sim | |
sementes | número inteiro | Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
Não | |
pare | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. O texto devolvido não conterá a sequência de paragem. |
Não | |
fluxo | Booleano | Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor de dados únicos, à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] .
Exemplo de código Python. |
Não | Falso |
sufixo | cadeia (de caracteres) | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct . |
Não | Nenhum |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
criarRespostaDeConclusão
Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
escolhas | matriz | A lista de opções de conclusão que o modelo gerou para o prompt de entrada. | Sim | |
criado | número inteiro | A marca temporal Unix (em segundos) de quando a conclusão foi criada. | Sim | |
ID | cadeia (de caracteres) | Um identificador exclusivo para a conclusão. | Sim | |
modelo | cadeia (de caracteres) | O modelo utilizado para a conclusão. | Sim | |
objecto | enumeração | O tipo de objeto, que será sempre "text_completion" Valores possíveis: text_completion |
Sim | |
filtrar_resultados_prompt | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. | Não | |
impressão_digital_do_sistema | cadeia (de caracteres) | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo. |
Não | |
utilização | conclusãoUso | Estatísticas de utilização do pedido de preenchimento. | Não |
criarPedidoDeConclusãoDeChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
áudio | objecto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"] . |
Não | |
└─ formato | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav , mp3 , flac , opus , ou pcm16 . Valores possíveis: wav , mp3 , flac , opus , , pcm16 |
Não | |
└─ voz | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy , echo , fable , onyx , nova e shimmer .Valores possíveis: alloy , echo , fable , onyx , , nova , shimmer |
Não | |
fontes_de_dados | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
Não | |
penalização de frequência | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
Não | |
funções | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não | |
logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
Não | Nenhum |
Logprobs | Booleano | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message . |
Não | Falso |
tokens_máximos_de_conclusão | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. | Não | |
máximo de tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
Não | |
mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. | Sim | |
metadados | objecto | Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. | Não | |
Modalidades | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão: ["text"] O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
Não | |
n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. |
Não | 1 |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
predição | Previsão-Conteúdo | Configuração para uma saída prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | Não | |
penalização por presença | número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
esforço de raciocínio | enumeração |
Apenas modelos O1 Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low , medium e high . Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low , medium , high |
Não | |
formato_de_resposta | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, que garantem a correspondência do modelo ao esquema JSON fornecido.Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
sementes | número inteiro | Este recurso está em versão Beta. Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
Não | |
pare | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. |
Não | |
armazenar | Booleano | Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | Não | |
fluxo | Booleano | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos apenas de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código Python. |
Não | Falso |
opções_de_transmissão | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhum |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
escolha_de_ferramenta | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
Não | |
top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada.
logprobs deve ser definido como true se este parâmetro for usado. |
Não | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
contexto_de_segurança_do_utilizador | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud. | Não |
contextoDeSegurançaDoUsuário
O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
nome_da_aplicação | cadeia (de caracteres) | O nome do aplicativo. As informações pessoais sensíveis não devem ser incluídas neste campo. | Não | |
id_utilizador_final | cadeia (de caracteres) | Esse identificador é a ID do objeto de usuário do Microsoft Entra ID (anteriormente Azure Ative Directory) usada para autenticar usuários finais no aplicativo de IA generativa. As informações pessoais sensíveis não devem ser incluídas neste campo. | Não | |
Identificador_inquilino_utilizador_final | cadeia (de caracteres) | O ID de locatário do Microsoft 365 ao qual o usuário final pertence. É necessário quando o aplicativo de IA generativa é multilocatário. | Não | |
IP de origem | cadeia (de caracteres) | Captura o endereço IP do cliente original, aceitando os formatos IPv4 e IPv6. | Não |
Funções de Conclusão de Chat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
nome | cadeia (de caracteres) | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
Opção de chamada de função do chatCompletion
Especificar uma função específica através {"name": "my_function"}
força o modelo a chamar essa função.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
nome | cadeia (de caracteres) | O nome da função a ser chamada. | Sim |
parâmetrosDeFunçãoDeConclusãoDeChat
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato.
Nenhuma propriedade definida para este componente.
mensagemDeSolicitaçãoDeConclusãoDoChat
Este componente pode ser um dos seguintes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
MensagemDoDesenvolvedorParaRequisiçãoDeConclusãoDoChat
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário.
Com modelos o1 e mais recentes, developer
as mensagens substituem as mensagens anteriores system
.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do desenvolvedor. | Sim | |
nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso developer .Valores possíveis: developer |
Sim |
MensagemDoSistemaDeSolicitaçãoDeConclusãoDoChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Sim | |
nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso system .Valores possíveis: system |
Sim |
MensagemDePedidoDeConclusãoDeChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Sim | |
nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso user .Valores possíveis: user |
Sim |
MensagemDoAssistenteDePedidoDeConclusãoDoChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
Não | |
function_call | objecto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
└─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | Não | |
nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não | |
recusa | cadeia (de caracteres) | A mensagem de recusa por parte do assistente. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso assistant .Valores possíveis: assistant |
Sim | |
tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não |
mensagemDeFerramentaDeSolicitaçãoDeConclusãoDeConversa
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Sim | |
função | enumeração | O papel do autor das mensagens, neste caso tool .Valores possíveis: tool |
Sim | |
tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está respondendo. | Sim |
Mensagem de Função de Pedido de Conclusão de Chat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem de função. | Sim | |
nome | cadeia (de caracteres) | O nome da função a ser chamada. | Sim | |
função | enumeração | O papel do autor das mensagens, neste caso function .Valores possíveis: function |
Sim |
parteDoConteúdoDaMensagemDoDesenvolvedorParaPedidoDeConclusãoDoChat
Este componente pode ser um dos seguintes:
parteDeConteúdoDaMensagemDeSistemaDePedidoDeConclusãoDeChat
Este componente pode ser um dos seguintes:
ParteDoConteúdoDaMensagemDoUsuárioChatCompletionRequest
Este componente pode ser um dos seguintes:
- conteúdo da mensagem de solicitação de conclusão de chat
- Imagem da Parte do Conteúdo da Mensagem de Solicitação de Conclusão do Chat
- chatCompletionRequestMessageContentPartAudio
ParteDoConteúdoDaMensagemDoAssistenteDeSolicitaçãoDeConclusãoDoChat
Este componente pode ser um dos seguintes:
- conteúdo da mensagem de solicitação de conclusão de chat
- Recusa de Parte de Conteúdo da Mensagem de Solicitação de Conclusão de Chat
mensagemDeConteúdoFerramentaPedidoDeConclusãoChat
Este componente pode ser um dos seguintes:
conteúdoDaMensagemDePedidoDeConclusãoDoChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
enviar SMS | cadeia (de caracteres) | O conteúdo do texto. | Sim | |
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Sim |
ConteúdoParteAudioDaMensagemDePedidoDeConclusãoDeChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
áudio_de_entrada | objecto | Sim | ||
└─ dados | cadeia (de caracteres) | Dados de áudio codificados em Base64. | Não | |
└─ formato | enumeração | O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3". Valores possíveis: wav , mp3 |
Não | |
tipo | enumeração | O tipo da parte de conteúdo. Sempre input_audio .Valores possíveis: input_audio |
Sim |
conteúdoDeImagemDeMensagemDePedidoDeConversa
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
image_url | objecto | Sim | ||
└─ detalhe | enumeração | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. Valores possíveis: auto , low , high |
Não | |
└─ URL | cadeia (de caracteres) | Um URL da imagem ou os dados de imagem codificados em base64. | Não | |
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim |
recusaDeParteDoConteúdoDaMensagemDeRequisiçãoDeConclusãoDeChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
recusa | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Sim | |
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Sim |
Configuração de Extensão do Azure Chat
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
###Discriminator para "azureChatExtensionConfiguration"
Este componente usa a propriedade type
para discriminar entre diferentes tipos:
Valor do tipo | Esquema |
---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
AzureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
Propriedade | Valor |
---|---|
Descrição | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Tipo | cadeia (de caracteres) |
Valores | azure_search azure_cosmos_db elasticsearch mongo_db pinecone |
azureSearchChatExtensionConfiguração
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
parâmetros | azureSearchChatExtensionParameters (Parâmetros de Extensão de Chat da Pesquisa Azure) | Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. | Não | |
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
ParâmetrosDeExtensãoDeChatDeBuscaAzure
Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
permitir_resultado_parcial | Booleano | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions (opções de autenticação) | Sim | ||
incorporar_dependência | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | Não | ||
ponto final | cadeia (de caracteres) | O caminho absoluto do endpoint para o recurso Azure Search a ser utilizado. | Sim | |
mapeamento_de_campos | Opções de Mapeamento de Campo do Índice de Pesquisa Azure | Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. | Não | |
filtro | cadeia (de caracteres) | Filtro de pesquisa. | Não | |
em_escopo | Booleano | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
incluir_contextos | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não | |
nome_do_índice | cadeia (de caracteres) | O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. | Sim | |
consultas_de_pesquisa_máximas | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
tipo_de_consulta | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | Não | |
configuração semântica | cadeia (de caracteres) | A configuração semântica adicional para a consulta. | Não | |
rigor | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
melhores_n_documentos | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não |
Opções de Mapeamento de Campos do Índice de Pesquisa do Azure
Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
campos_de_conteúdo | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
separador_de_campos_de_conteúdo | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
campo_caminho_do_ficheiro | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
campos_de_vetores_de_imagem | matriz | Os nomes dos campos que representam dados vetoriais de imagem. | Não | |
campo_título | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | Não | |
campo_url | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | Não | |
campos vetoriais | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
Tipo de Consulta do Azure Search
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Propriedade | Valor |
---|---|
Descrição | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
Tipo | cadeia (de caracteres) |
Valores | simple semantic vector vector_simple_hybrid vector_semantic_hybrid |
Configuração de Extensão de Chat do Azure Cosmos DB
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
parâmetros | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. | Não | |
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
ParâmetrosDaExtensãoDeChatDoAzureCosmosDB
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
permitir_resultado_parcial | Booleano | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
autenticação | nasOpçõesDeAutenticaçãoDaStringDeConexãoDeDados | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Sim | |
nome_do_conteiner | cadeia (de caracteres) | O nome do contêiner de recursos do Azure Cosmos DB. | Sim | |
nome_da_base_de_dados | cadeia (de caracteres) | O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. | Sim | |
incorporar_dependência | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
mapeamento_de_campos | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Sim | |
em_escopo | Booleano | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
incluir_contextos | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não | |
nome_do_índice | cadeia (de caracteres) | O nome do índice vCore do MongoDB para usar com o Azure Cosmos DB. | Sim | |
consultas_de_pesquisa_máximas | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
rigor | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
melhores_n_documentos | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não |
Opções de Mapeamento de Campos do azureCosmosDB
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
campos_de_conteúdo | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
separador_de_campos_de_conteúdo | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
campo_caminho_do_ficheiro | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
campo_título | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | Não | |
campo_url | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | Não | |
campos vetoriais | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
Configuração da Extensão de Chat do Elasticsearch
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
parâmetros | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | Não | |
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
Parâmetros da Extensão de Chat do Elasticsearch
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
permitir_resultado_parcial | Booleano | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Sim | ||
incorporar_dependência | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | Não | ||
ponto final | cadeia (de caracteres) | O ponto de extremidade do Elasticsearch®. | Sim | |
mapeamento_de_campos | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | Não | |
em_escopo | Booleano | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
incluir_contextos | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não | |
nome_do_índice | cadeia (de caracteres) | O nome do índice do Elasticsearch®. | Sim | |
consultas_de_pesquisa_máximas | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
tipo_de_consulta | elasticsearchQueryType | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | Não | |
rigor | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
melhores_n_documentos | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não |
Opções de Mapeamento de Campos do Índice Elasticsearch
Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
campos_de_conteúdo | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
separador_de_campos_de_conteúdo | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
campo_caminho_do_ficheiro | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
campo_título | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | Não | |
campo_url | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | Não | |
campos vetoriais | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
TipoDeConsultaElasticsearch
O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Propriedade | Valor |
---|---|
Descrição | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
Tipo | cadeia (de caracteres) |
Valores | simple vector |
ConfiguraçãoDaExtensãoDeChatMongoDB
Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
parâmetros | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB. | Não | |
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
permitir_resultado_parcial | Booleano | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
nome_do_app | cadeia (de caracteres) | O nome do aplicativo Mongo DB. | Sim | |
autenticação | opçõesDeAutenticaçãoComNomeDeUtilizadorESenhaNoSeuSistemaDeDados | As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. | Sim | |
nome_da_colecção | cadeia (de caracteres) | O nome da Coleção Mongo DB. | Sim | |
nome_da_base_de_dados | cadeia (de caracteres) | O nome do banco de dados Mongo DB. | Sim | |
incorporar_dependência | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
ponto final | cadeia (de caracteres) | O nome do ponto de extremidade do cluster Mongo DB. | Sim | |
mapeamento_de_campos | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. | Sim | |
em_escopo | Booleano | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
incluir_contextos | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não | |
nome_do_índice | cadeia (de caracteres) | O nome do índice Mongo DB. | Sim | |
consultas_de_pesquisa_máximas | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
rigor | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
melhores_n_documentos | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não |
OpçõesDeMapeamentoDeCamposMongoDB
Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
campos_de_conteúdo | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
separador_de_campos_de_conteúdo | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
campo_caminho_do_ficheiro | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
campo_título | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | Não | |
campo_url | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | Não | |
campos vetoriais | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
ConfiguraçãoDaExtensãoPineconeChat
Uma representação específica de opções configuráveis para Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
parâmetros | pineconeChatExtensionParameters | Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone. | Não | |
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
pineconeChatExtensionParameters
Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
permitir_resultado_parcial | Booleano | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
autenticação | onYourDataOpçõesDeAutenticaçãoDeChaveApi | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. | Sim | |
incorporar_dependência | onSeuNomeDeInstalaçãoFonteDeVetorização | Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo interno de incorporação no mesmo recurso do Azure OpenAI. | Sim | |
ambiente | cadeia (de caracteres) | O nome do ambiente de Pinecone. | Sim | |
mapeamento_de_campos | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. | Sim | |
em_escopo | Booleano | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
incluir_contextos | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não | |
nome_do_índice | cadeia (de caracteres) | O nome do índice do banco de dados Pinecone. | Sim | |
consultas_de_pesquisa_máximas | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
rigor | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
melhores_n_documentos | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não |
opçõesDeMapeamentoDeCamposDoPinhao
Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
campos_de_conteúdo | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
separador_de_campos_de_conteúdo | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
campo_caminho_do_ficheiro | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
campo_título | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | Não | |
campo_url | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | Não |
opçõesDeAutenticaçãoDeDados
As opções de autenticação para o Azure OpenAI On Your Data.
Discriminador para onYourDataAuthenticationOptions
Este componente usa a propriedade type
para discriminar entre diferentes tipos:
Valor do tipo | Esquema |
---|---|
api_key |
onYourDataOpçõesDeAutenticaçãoDeChaveApi |
connection_string |
nasOpçõesDeAutenticaçãoDaStringDeConexãoDeDados |
key_and_key_id |
nasOpçõesDeAutenticaçãoDeSuaChaveEDoIdChave |
encoded_api_key |
OpçõesDeAutenticaçãoDeChaveAPIcodificadaOnYourData |
access_token |
emSeusDadosTokenDeAcessoOpçõesDeAutenticação |
system_assigned_managed_identity |
OpçõesDeAutenticaçãoDaIdentidadeGeridaAtribuídaPeloSeuSistemaDeDados |
user_assigned_managed_identity |
opçõesDeAutenticaçãoDeIdentidadeGerenciadaAtribuídaPeloUsuárioTooDados |
username_and_password |
opçõesDeAutenticaçãoComNomeDeUtilizadorESenhaNoSeuSistemaDeDados |
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onYourDataContextProperty
A propriedade context.
Propriedade | Valor |
---|---|
Descrição | A propriedade context. |
Tipo | cadeia (de caracteres) |
Valores | citations intent all_retrieved_documents |
TipoDeAutenticaçãoDosSeusDados
Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
Propriedade | Valor |
---|---|
Descrição | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. |
Tipo | cadeia (de caracteres) |
Valores | api_key connection_string key_and_key_id encoded_api_key access_token system_assigned_managed_identity user_assigned_managed_identity username_and_password |
sobreOpçõesDeAutenticaçãoChaveAPIDosSeusDados
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chave | cadeia (de caracteres) | A chave de API a ser usada para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
opçõesDeAutenticaçãoNaSuaStringDeConexãoDeDados
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
string de conexão | cadeia (de caracteres) | A cadeia de conexão a ser usada para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
opçõesDeAutenticaçãoParaAChaveDeDadosEIdDaChave
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave Elasticsearch e um par de ID de chave.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chave | cadeia (de caracteres) | A chave Elasticsearch a ser usada para autenticação. | Não | |
key_id | cadeia (de caracteres) | O ID da chave do Elasticsearch a ser usado para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onOsSeusDadosCodificadosOpçõesDeAutenticaçãoDaApiKey
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API codificada do Elasticsearch.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chave_api_codificada | cadeia (de caracteres) | A chave de API codificada do Elasticsearch a ser usada para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onYourDataAccessTokenAuthenticationOptions (Opções de Autenticação de Token de Acesso ao SuaDados)
As opções de autenticação para o Azure OpenAI On Your Data ao usar o token de acesso.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
token de acesso | cadeia (de caracteres) | O token de acesso a ser usado para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
Opções de Autenticação da Identidade Gerida Atribuída ao Seu Sistema
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
OpçõesDeAutenticaçãoDeIdentidadeGeridaAtribuídaPelaSuaDadosUtilizador
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ID de recurso de identidade gerida | cadeia (de caracteres) | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
opçõesDeAutenticaçãoComNomeDeUtilizadorESenhaNoSeuData
As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
palavra-passe | cadeia (de caracteres) | A senha. para usar para autenticação. | Não | |
tipo | tipoDeAutenticaçãoNosDados | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
nome de utilizador | cadeia (de caracteres) | O nome de usuário a ser usado para autenticação. | Não |
emSeuFonteDeVectorizaçãoDosDados
Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.
Este componente usa a propriedade type
para discriminar entre diferentes tipos:
Valor do tipo | Esquema |
---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onSeusDadosIntegradosFonteDeVetorização |
model_id |
naSuaOrigemDeVetorizaçãoIdDoModeloDeDados |
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | emOSeuTipoDeFonteDeVectorizaçãoDeDados | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Sim |
TipoFonteDeVetorizacaoDosSeusDados
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.
Propriedade | Valor |
---|---|
Descrição | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Tipo | cadeia (de caracteres) |
Valores | endpoint deployment_name integrated model_id |
naFonteDeVetorizaçãoDoSeuEndpointDeDados
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, com base numa chamada pública de endpoint do Azure OpenAI para embeddings.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Não | ||
dimensões | número inteiro | O número de dimensões que as incorporações devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. |
Não | |
ponto final | cadeia (de caracteres) | Especifica a URL do ponto de extremidade do recurso a partir da qual as incorporações devem ser recuperadas. Deve ser no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings . O parâmetro de consulta api-version não é permitido. |
Não | |
tipo | emOSeuTipoDeFonteDeVectorizaçãoDeDados | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Sim |
onYourDataDeploymentNameVectorizationSource (assuming it should remain untranslated due to its potential status as a specific and recognizable technical term or name)
Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia num nome de implementação de um modelo de embeddings interno no mesmo recurso Azure OpenAI.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
nome_da_implementação | cadeia (de caracteres) | Especifica o nome da implantação do modelo a utilizar para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. | Não | |
dimensões | número inteiro | O número de dimensões que as incorporações devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. |
Não | |
tipo | emOSeuTipoDeFonteDeVectorizaçãoDeDados | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Sim |
fonteIntegradaDeVetorizaçãoDoSeuData
Representa o vetorizador integrado definido no recurso de pesquisa.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | emOSeuTipoDeFonteDeVectorizaçãoDeDados | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Sim |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma ID de modelo de serviço de pesquisa. Atualmente suportado apenas pelo Elasticsearch®.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_modelo | cadeia (de caracteres) | Especifica o ID do modelo a ser usado para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. | Não | |
tipo | emOSeuTipoDeFonteDeVectorizaçãoDeDados | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Sim |
azureChatExtensionsContextoMensagem
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
todos_os_documentos_recuperados | matriz | Todos os documentos recuperados. | Não | |
Citações | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | Não | |
intenção | cadeia (de caracteres) | A intenção detetada a partir do histórico de conversas, usada para avançar para a próxima rodada, mantendo o contexto. | Não |
citação
informações de citação para uma mensagem de resposta de conclusão do chat.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Identificador_de_fragmento | cadeia (de caracteres) | O ID do segmento da citação. | Não | |
conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Sim | |
caminho do arquivo | cadeia (de caracteres) | O caminho do arquivo da citação. | Não | |
pontuação_reordenação | número | A pontuação de reclassificação do documento recuperado. | Não | |
título | cadeia (de caracteres) | O título da citação. | Não | |
URL | cadeia (de caracteres) | O URL da citação. | Não |
recuperadoDocumento
O documento recuperado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Identificador_de_fragmento | cadeia (de caracteres) | O ID do segmento da citação. | Não | |
conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Sim | |
índice_fonte_de_dados | número inteiro | O índice da fonte de dados. | Não | |
caminho do arquivo | cadeia (de caracteres) | O caminho do arquivo da citação. | Não | |
razão do filtro | filterReason | O motivo de filtragem do documento recuperado. | Não | |
pontuação_de_pesquisa_original | número | A pontuação de pesquisa original do documento recuperado. | Não | |
pontuação_reordenação | número | A pontuação de reclassificação do documento recuperado. | Não | |
consultas de pesquisa | matriz | As consultas de pesquisa usadas para recuperar o documento. | Não | |
título | cadeia (de caracteres) | O título da citação. | Não | |
URL | cadeia (de caracteres) | O URL da citação. | Não |
motivo do filtro
O motivo de filtragem do documento recuperado.
Propriedade | Valor |
---|---|
Descrição | O motivo de filtragem do documento recuperado. |
Tipo | cadeia (de caracteres) |
Valores | score rerank |
Chamada da Ferramenta de Mensagem de Conclusão de Chat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | A função que o modelo chamou. | Sim | |
└─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | Não | |
ID | cadeia (de caracteres) | O identificador da chamada da ferramenta. | Sim | |
tipo | toolCallType | O tipo de chamada de ferramenta, neste caso function . |
Sim |
TipoDeChamadaDeFerramenta
O tipo de chamada de ferramenta, neste caso function
.
Propriedade | Valor |
---|---|
Descrição | O tipo de chamada de ferramenta, neste caso function . |
Tipo | cadeia (de caracteres) |
Valores | function |
Ferramenta de Mensagem de Pedido de Conclusão de Chat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Não | |
tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está respondendo. | Não |
funçãoDeMensagemDePedidoDeConclusãoDoChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Não | |
nome | cadeia (de caracteres) | O conteúdo da mensagem. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso function .Valores possíveis: function |
Não |
createChatCompletionResponse
Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
escolhas | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Sim | |
criado | número inteiro | O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. | Sim | |
ID | cadeia (de caracteres) | Um identificador exclusivo para a conclusão do chat. | Sim | |
modelo | cadeia (de caracteres) | O modelo usado para a conclusão do chat. | Sim | |
objecto | enumeração | O tipo de objeto, que é sempre chat.completion .Valores possíveis: chat.completion |
Sim | |
filtrar_resultados_prompt | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. | Não | |
impressão_digital_do_sistema | cadeia (de caracteres) | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo. |
Não | |
utilização | conclusãoUso | Estatísticas de utilização do pedido de preenchimento. | Não |
createChatCompletionStreamResponse
Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
escolhas | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Sim | |
criado | número inteiro | O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. | Sim | |
ID | cadeia (de caracteres) | Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. | Sim | |
modelo | cadeia (de caracteres) | O modelo para gerar a conclusão. | Sim | |
objecto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk .Valores possíveis: chat.completion.chunk |
Sim | |
impressão_digital_do_sistema | cadeia (de caracteres) | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo. |
Não |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem de bloco. | Não | |
function_call | objecto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
└─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | Não | |
recusa | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Não | |
função | enumeração | O papel do autor desta mensagem. Valores possíveis: system , user , assistant , tool |
Não | |
tool_calls | matriz | Não |
FragmentoChamadaFerramentaMensagemConclusãoChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | Não | ||
└─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | Não | |
ID | cadeia (de caracteres) | O identificador da chamada da ferramenta. | Não | |
indexar | número inteiro | Sim | ||
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: function |
Não |
opçõesDeTransmissãoDeConclusãoDeChat
Opções de resposta em streaming. Defina isso apenas quando definir stream: true
.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
incluir_uso | Booleano | Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo. |
Não |
chatCompletionChoiceLogProbs
Registre informações de probabilidade para a escolha.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | matriz | Uma lista de tokens de conteúdo de mensagem com informações de probabilidade logarítmica. | Sim | |
recusa | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade em logarítmico. | Não |
chatCompletionTokenLogprob
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Bytes | matriz | Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Sim | |
Logprob | número | A probabilidade logarítmica deste token. | Sim | |
token | cadeia (de caracteres) | O token. | Sim | |
top_logprobs | matriz | Lista dos tokens mais prováveis e o log de probabilidade, nesta posição específica de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. |
Sim |
MensagemDeRespostaDeConclusãoDeChat (chatCompletionResponseMessage)
Uma mensagem de conclusão do chat gerada pelo modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
áudio | objecto | Se a modalidade de saída de áudio for solicitada, este objeto contém dados sobre a resposta de áudio do modelo. | Não | |
└─ dados | cadeia (de caracteres) | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. |
Não | |
└─ expira_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando esta resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos. |
Não | |
└─ ID | cadeia (de caracteres) | Identificador exclusivo para esta resposta de áudio. | Não | |
└─ Transcrição | cadeia (de caracteres) | Transcrição do áudio gerado pelo modelo. | Não | |
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Sim | |
contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente. | Não | |
function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
recusa | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Sim | |
função | RoleDaMensagemDeConclusãoDoChat | O papel do autor da mensagem de resposta. | Sim | |
tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não |
funçãoMensagemRespostaConclusãoChat
O papel do autor da mensagem de resposta.
Propriedade | Valor |
---|---|
Descrição | O papel do autor da mensagem de resposta. |
Tipo | cadeia (de caracteres) |
Valores | assistant |
opçãoDeEscolhaDeFerramentaDeConclusãoDeChat
Controla qual (se houver) ferramenta é chamada pelo modelo.
none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto
significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required
significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta.
none
é o padrão quando nenhuma ferramenta está presente.
auto
é o padrão se as ferramentas estiverem presentes.
Este componente pode ser um dos seguintes:
escolhaFerramentaNomeadaDeConclusaoChat
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | Sim | ||
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | Não | |
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: function |
Sim |
ParallelToolCalls
Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.
Nenhuma propriedade definida para este componente.
PrevisãoConteúdo
Conteúdo de saída estático previsto, como o conteúdo de um arquivo de texto que está sendo regenerado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | cadeia de caracteres ou matriz | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornada muito mais rapidamente. | Sim | |
tipo | enumeração | O tipo de conteúdo previsto que você deseja fornecer. Este tipo é atualmente sempre content .Valores possíveis: content |
Sim |
chamadasDeFerramentaParaMensagemDeConclusãoDeChat
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para este componente.
Modalidades de Conclusão de Chat
Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview
modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para este componente.
Chamada de função de conclusão de chat
Preterido e substituído por tool_calls
. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Sim | |
nome | cadeia (de caracteres) | O nome da função a ser chamada. | Sim |
conclusãoUso
Estatísticas de utilização do pedido de preenchimento.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tokens_de_conclusão | número inteiro | Número de tokens na conclusão gerada. | Sim | |
detalhes_de_tokens_de_conclusão | objecto | Distribuição dos tokens usados numa conclusão. | Não | |
└─ tokens_de_previsão_aceites | número inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. | Não | |
└─ fichas_de_áudio | número inteiro | Tokens de entrada de áudio gerados pelo modelo. | Não | |
└─ tokens de raciocínio | número inteiro | Tokens gerados pelo modelo de raciocínio. | Não | |
└─ tokens_de_previsão_rejeitados | número inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, como os tokens de raciocínio, esses tokens ainda são contados nos tokens de conclusão total para fins de faturamento, saída e limites de janela de contexto. | Não | |
prompt_tokens | número inteiro | Número de tokens no prompt. | Sim | |
Detalhes_dos_tokens_de_prompt | objecto | Detalhes dos tokens de prompt. | Não | |
└─ fichas_de_áudio | número inteiro | Tokens de entrada de áudio presentes no prompt. | Não | |
└─ tokens em cache | número inteiro | O número de tokens de prompt armazenados em cache. | Não | |
total de tokens | número inteiro | Número total de tokens usados na solicitação (prompt + conclusão). | Sim |
Ferramenta de Conclusão de Chat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | FunctionObject | Sim | ||
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: function |
Sim |
Parâmetros de Função
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters
define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para este componente.
FunctionObject
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
nome | cadeia (de caracteres) | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
rigoroso | Booleano | Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
Não | Falso |
FormatoDoTextoDeResposta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: text Valores possíveis: text |
Sim |
FormatoDeRespostaObjetoJson
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_object Valores possíveis: json_object |
Sim |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para este componente.
FormatoDeRespostaEsquemaJson
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
esquema_json | objecto | Sim | ||
└─ Descrição | cadeia (de caracteres) | Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato. | Não | |
└─ nome | cadeia (de caracteres) | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Não | |
└─ esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | Não | |
└─ rigoroso | Booleano | Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
Não | Falso |
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schema Valores possíveis: json_schema |
Sim |
OpçãoComumDeConclusãoDeChat
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
motivo_de_finalização | cadeia (de caracteres) | Não | ||
indexar | número inteiro | Não |
criarPedidoDeTradução
Pedido de tradução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiro | cadeia (de caracteres) | O arquivo de áudio a ser traduzido. | Sim | |
avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | Não | |
formato_de_resposta | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
Resposta de Áudio
Resposta de tradução ou transcrição quando response_format foi json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Sim |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Duração | número | Duração. | Não | |
linguagem | cadeia (de caracteres) | Idioma. | Não | |
segmentos | matriz | Não | ||
tarefa | cadeia (de caracteres) | Tipo de tarefa de áudio. | Não | |
enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Sim | |
Palavras | matriz | Não |
formatoDeRespostaDeÁudio
Define o formato da saída.
Propriedade | Valor |
---|---|
Descrição | Define o formato da saída. |
Tipo | cadeia (de caracteres) |
Valores | json text srt verbose_json vtt |
criarPedidoDeTranscrição
Pedido de transcrição.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiro | cadeia (de caracteres) | O objeto do arquivo de áudio a ser transcrito. | Sim | |
linguagem | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | Não | |
avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
formato_de_resposta | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
granularidade_de_timestamp[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word , ou segment . Nota: Não há latência adicional nos carimbos de data/hora para segmentos, mas a geração de carimbos de data/hora para palavras resulta em latência adicional. |
Não | ['segmento'] |
segmento de áudio
Segmento de transcrição ou tradução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
avg_logprob | número | Probabilidade média de log. | Não | |
relação de compressão | número | Taxa de compressão. | Não | |
fim | número | Compensação final do segmento. | Não | |
ID | número inteiro | Identificador de segmento. | Não | |
probabilidade_de_ausência_de_fala | número | Probabilidade de 'não falar'. | Não | |
procurar | número | Deslocamento do segmento. | Não | |
Início | número | Compensação de início de segmento. | Não | |
temperatura | número | Temperatura. | Não | |
enviar SMS | cadeia (de caracteres) | Segmentar o texto. | Não | |
fichas | matriz | Fichas do texto. | Não |
audioWord
Transcrição ou tradução de palavras.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
fim | número | Compensação final do Word. | Não | |
Início | número | Deslocamento de início do Word. | Não | |
word | cadeia (de caracteres) | Palavra | Não |
criarPedidoDeDiscurso
Pedido de voz.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados introduzidos | cadeia (de caracteres) | O texto para sintetizar áudio. O comprimento máximo é de 4096 caracteres. | Sim | |
formato_de_resposta | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3 , opus , aac , flac , , wav , pcm |
Não | |
velocidade | número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0 .
1.0 é o padrão. |
Não | 1.0 |
voz | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: alloy , echo , fable , onyx , , nova , shimmer |
Sim |
qualidade de imagem
A qualidade da imagem que será gerada.
Propriedade | Valor |
---|---|
Descrição | A qualidade da imagem que será gerada. |
Tipo | cadeia (de caracteres) |
Predefinição | automóvel |
Valores | auto high medium low hd standard |
imagesResponseFormat
O formato em que as imagens geradas são retornadas.
Propriedade | Valor |
---|---|
Descrição | O formato em que as imagens geradas são retornadas. |
Tipo | cadeia (de caracteres) |
Predefinição | URL |
Valores | url b64_json |
formatoDeSaídaDeImagens
O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1.
Propriedade | Valor |
---|---|
Descrição | O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1. |
Tipo | cadeia (de caracteres) |
Predefinição | PNG |
Valores | png jpeg |
tamanho da imagem
O tamanho das imagens geradas.
Propriedade | Valor |
---|---|
Descrição | O tamanho das imagens geradas. |
Tipo | cadeia (de caracteres) |
Predefinição | automóvel |
Valores | auto 1792x1024 1024x1792 1024x1024 1024x1536 1536x1024 |
estilo de imagem
O estilo das imagens geradas. Apenas suportado para dall-e-3.
Propriedade | Valor |
---|---|
Descrição | O estilo das imagens geradas. Apenas suportado para dall-e-3. |
Tipo | cadeia (de caracteres) |
Predefinição | vívido |
Valores | vivid natural |
imagem de fundo
Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1.
Propriedade | Valor |
---|---|
Descrição | Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1. |
Tipo | cadeia (de caracteres) |
Predefinição | automóvel |
Valores | transparent opaque auto |
pedidoDeGeraçõesDeImagem
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
em segundo plano | imagem fundo | Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro só é suportado para gpt-image-1. | Não | automóvel |
n | número inteiro | O número de imagens a gerar. Para DALL-E-3, é suportado apenas n=1. | Não | 1 |
compressão_de_saída | número inteiro | O nível de compressão (0-100%) para as imagens geradas. Este parâmetro só é suportado para gpt-image-1 com o formato de saída jpeg. | Não | 100 |
formato_de_saida | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para gpt-image-1. | Não | PNG |
avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para gpt-image-1 e 4000 caracteres para dall-e-3 | Sim | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | automóvel |
formato_de_resposta | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | URL |
tamanho | imageSize | O tamanho das imagens geradas. | Não | automóvel |
estilo | imageStyle | O estilo das imagens geradas. Apenas suportado para dall-e-3. | Não | vívido |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
pedidoDeEdiçãoDeImagem
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
imagem | cadeia de caracteres ou matriz | A(s) imagem(ns) a editar. Deve ser um arquivo de imagem suportado ou uma matriz de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. | Sim | |
máscara | cadeia (de caracteres) | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões que a imagem. | Não | |
n | número inteiro | O número de imagens a gerar. | Não | 1 |
avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. | Sim | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | automóvel |
formato_de_resposta | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | URL |
tamanho | imageSize | O tamanho das imagens geradas. | Não | automóvel |
utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
generateImagesResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criado | número inteiro | O carimbo de data/hora Unix quando a operação foi criada. | Sim | |
dados | matriz | Os dados de resultado da operação, se bem-sucedida | Sim | |
utilização | imageGenerationsUsage | Representa detalhes de uso de token para solicitações de geração de imagem. Apenas para gpt-image-1. | Não |
resultadoImagem
A URL da imagem ou a imagem codificada, se obtida com sucesso, e um erro caso contrário.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
b64_json | cadeia (de caracteres) | A imagem codificada base64 | Não | |
resultados_do_filtro_de_conteúdo | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | Não | |
filtrar_resultados_prompt | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não | |
Proposta de Melhorias: - Certificar-se de que as frases e termos são traduzidos corretamente para refletir o mesmo significado do texto de origem. - Adaptar quaisquer termos em inglês que possam ser traduzidos naturalmente para português, preservando o seu significado. - Corrigir quaisquer questões gramaticais para aumentar a fluência e a legibilidade em português. - Usar a estrutura de frases em português natural para que a tradução soe nativa. - Verificar o uso apropriado de pontuação e registro para o português. | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. | Não | |
URL | cadeia (de caracteres) | O url da imagem. | Não |
usoDeGeraçõesDeImagens
Representa detalhes de uso de token para solicitações de geração de imagem. Apenas para gpt-image-1.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tokens_de_entrada | número inteiro | O número de tokens de entrada. | Não | |
detalhes_de_tokens_de_entrada | objecto | Um detalhamento detalhado dos tokens de entrada. | Não | |
└─ image_tokens | número inteiro | O número de tokens de imagem. | Não | |
└─ text_tokens | número inteiro | O número de tokens de texto. | Não | |
tokens de saída | número inteiro | O número de tokens de saída. | Não | |
total de tokens | número inteiro | O número total de tokens usados. | Não |
linha
Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
vãos | matriz | Uma matriz de extensões que representam objetos detetados e suas informações de caixa delimitadora. | Sim | |
enviar SMS | cadeia (de caracteres) | Sim |
Extensão
Um objeto span que representa um objeto detetado e suas informações de caixa delimitadora.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
comprimento | número inteiro | O comprimento da extensão em caracteres, medido em pontos de código Unicode. | Sim | |
Compensação | número inteiro | O deslocamento de caracteres dentro do texto onde a extensão começa. Esse deslocamento é definido como a posição do primeiro caractere da extensão, contando desde o início do texto como pontos de código Unicode. | Sim | |
polígono | matriz | Uma matriz de objetos que representa pontos no polígono que encerra o objeto detetado. | Sim | |
enviar SMS | cadeia (de caracteres) | O conteúdo de texto da extensão que representa o objeto detetado. | Sim |
execuçãoUtilizaçãoCompleta
Estatísticas de utilização relacionadas com a execução. Este valor será null
se a execução não estiver em um estado terminal (ou seja in_progress
, , queued
, etc.).
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tokens_de_conclusão | número inteiro | Número de tokens de conclusão usados ao longo da execução. | Sim | |
prompt_tokens | número inteiro | Número de tokens de prompt usados ao longo da execução. | Sim | |
total de tokens | número inteiro | Número total de tokens usados (prompt + conclusão). | Sim |
execuçãoUsoConclusãoEtapa
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null
enquanto o status da etapa de execução for in_progress
.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tokens_de_conclusão | número inteiro | Número de tokens de conclusão usados ao longo da etapa de execução. | Sim | |
prompt_tokens | número inteiro | Número de tokens de prompt usados ao longo da etapa de execução. | Sim | |
total de tokens | número inteiro | Número total de tokens usados (prompt + conclusão). | Sim |
assistentesApiResponseFormatOption
Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106
.
Configurar para { "type": "json_schema", "json_schema": {...} }
ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.
Configuração para { "type": "json_object" }
habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length"
, o que indica que a geração excedeu max_tokens
ou a conversa excedeu o comprimento máximo de contexto.
Este componente pode ser um dos seguintes:
assistentesApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se json_object
apenas function
o tipo tools
tiver permissão para ser passado para a Execução. Se text
o modelo pode retornar texto ou qualquer valor necessário.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | cadeia (de caracteres) | Deve ser um dos text ou json_object . |
Não | enviar SMS |
tipo Enum: AssistantsApiResponseFormat
Valor | Descrição |
---|---|
enviar SMS | |
objeto JSON |
Objeto do assistente
Representa um assistant
que pode chamar o modelo e usar ferramentas.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criado_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. | Sim | |
descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Sim | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Sim | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
modelo | cadeia (de caracteres) | ID do modelo a utilizar. | Sim | |
nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre assistant . |
Sim | |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , file_search , ou function . |
Sim | [] |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
objeto Enum: AssistantObjectType
Valor | Descrição |
---|---|
assistente | O tipo de objeto, que é sempre assistente |
criarPedidoAssistente
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | Sim | ||
nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
└─ armazenamento_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
modificarAssistantRequest
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | Não | ||
nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
eliminarRespostaDoAssistente
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Suprimido | Booleano | Sim | ||
ID | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteAssistantResponseState
Valor | Descrição |
---|---|
assistente.excluído |
listAssistantsResposta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
assistantToolsCode
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: code_interpreter |
Sim |
tipo Enum: assistantToolsCodeType
Valor | Descrição |
---|---|
interpretador de código |
Ferramentas de Pesquisa de Arquivos do Assistente
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
pesquisa de ficheiros | objecto | Substitui a ferramenta de pesquisa de arquivos. | Não | |
└─ número_máx_resultados | número inteiro | O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve situar-se entre 1 e 50, inclusive. Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados. |
Não | |
tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: file_search |
Sim |
tipo Enum: assistantToolsFileSearchType
Valor | Descrição |
---|---|
pesquisa de ficheiros |
assistantToolsFileSearchTypeOnly
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: file_search |
Sim |
tipo Enum: assistantToolsFileSearchType
Valor | Descrição |
---|---|
pesquisa de ficheiros |
funçãoDeFerramentasDoAssistente
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | A definição da função. | Sim | |
└─ Descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Não | |
└─ parâmetros | ParâmetrosDaFunçãoDeConclusãoDoChat | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato. | Não | |
tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: function |
Sim |
tipo Enum: assistantToolsFunction
Valor | Descrição |
---|---|
função |
truncationObject
Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
últimas_mensagens | número inteiro | O número de mensagens mais recentes do thread ao construir o contexto para a execução. | Não | |
tipo | cadeia (de caracteres) | A estratégia de truncamento a ser usada para o thread. A predefinição é auto . Se definido como last_messages , o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto , as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens . |
Sim |
type Enum: Tipo de Truncamento
Valor | Descrição |
---|---|
automóvel | |
últimas_mensagens |
assistentesApiToolChoiceOption
Controla qual (se houver) ferramenta é chamada pelo modelo.
none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto
é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"}
ou {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta.
Este componente pode ser um dos seguintes:
assistentesNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | Não | ||
└─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | Não | |
tipo | cadeia (de caracteres) | O tipo da ferramenta. Se type for function , o nome da função deve ser definido |
Sim |
tipo Enum: AssistantsNamedToolChoiceType
Valor | Descrição |
---|---|
função | |
interpretador de código | |
pesquisa de ficheiros |
runObject
Representa uma execução executada em um threads.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_assistente | cadeia (de caracteres) | O ID do assistente usado para a execução desta execução. | Sim | |
cancelado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi cancelada. | Sim | |
concluído_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. | Sim | |
criado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi criada. | Sim | |
expira_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. | Sim | |
falhou_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. | Sim | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
detalhes incompletos | objecto | Detalhes sobre o motivo pelo qual a execução está incompleta. Será null se a execução não estiver incompleta. |
Sim | |
└─ Justificação | cadeia (de caracteres) | A razão pela qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. | Não | |
Instruções | cadeia (de caracteres) | As instruções que o assistente usou para esta execução. | Sim | |
último_erro | objecto | O último erro associado a esta execução. Será null se não houver erros. |
Sim | |
└─ código | cadeia (de caracteres) | Um dos server_error ou rate_limit_exceeded . |
Não | |
└─ mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. | Não | |
tokens_máximos_de_conclusão | número inteiro | O número máximo de tokens de conclusão especificado para ter sido usado ao longo da execução. |
Sim | |
max_prompt_tokens (número máximo de tokens de aviso) | número inteiro | O número máximo de tokens de prompt especificado para ter sido usado ao longo da execução. |
Sim | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
modelo | cadeia (de caracteres) | O modelo que o assistente usou para esta execução. | Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.run . |
Sim | |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
ação obrigatória | objecto | Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. |
Sim | |
submeter_saídas_de_ferramenta | objecto | Detalhes sobre as saídas da ferramenta necessárias para que esta execução continue. | Não | |
└─ tool_calls | matriz | Uma lista das chamadas de ferramentas relevantes. | Não | |
└─ tipo | enumeração | Por enquanto, isso é sempre submit_tool_outputs .Valores possíveis: submit_tool_outputs |
Não | |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Sim | |
iniciado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. | Sim | |
estado | cadeia (de caracteres) | O status da execução, que pode ser , , , , queued , in_progress requires_action , cancelling , ou cancelled . failed completed expired |
Sim | |
temperatura | número | A temperatura de amostragem utilizada para este ensaio. Se não estiver definido, o padrão será 1. | Não | |
ID de thread | cadeia (de caracteres) | A ID dos threads que foram executados como parte desta execução. | Sim | |
escolha_de_ferramenta | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Sim | |
Ferramentas | matriz | A lista de ferramentas que o assistente usou para esta execução. | Sim | [] |
top_p | número | O valor de amostragem do núcleo utilizado para esta corrida. Se não estiver definido, o padrão será 1. | Não | |
estratégia de truncamento | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Sim | |
utilização | runCompletionUsage | Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress , , queued , etc.). |
Sim |
objeto Enum: runObjectType
Valor | Descrição |
---|---|
thread.run | O tipo de objeto run que é sempre thread.run |
status Enum: EstadoDoObjetoEmExecução
Valor | Descrição |
---|---|
em fila | O estado em fila |
em andamento | O Estado in_progress |
requer_ação | O Estado required_action |
Cancelamento | O estado de cancelamento |
cancelado | O estado cancelado |
com falhas | O estado falhado |
concluída | O estado concluído |
expirou | O estado expirado |
criarPedidoDeExecução
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
instruções adicionais | cadeia (de caracteres) | Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
mensagens_adicionais | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | Não | |
identificador_do_assistente | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Sim | |
Instruções | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
tokens_máximos_de_conclusão | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
max_prompt_tokens (número máximo de tokens de aviso) | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
fluxo | Booleano | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
escolha_de_ferramenta | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
Ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
estratégia de truncamento | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
listRunsResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
modificarPedidoDeExecução
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
solicitaçãoDeExecuçãoResultadosDaFerramenta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
fluxo | Booleano | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
saídas_da_ferramenta | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Sim |
runToolCallObject
Objetos de chamada de ferramenta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | A definição da função. | Sim | |
└─ argumentos | cadeia (de caracteres) | Os argumentos que o modelo espera que você passe para a função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função. | Não | |
ID | cadeia (de caracteres) | O identificador da chamada da ferramenta. Esse ID deve ser referenciado quando você envia as saídas da ferramenta usando as saídas da ferramenta de envio para executar o endpointendpoint. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function . |
Sim |
tipo Enum: RunToolCallObjectType
Valor | Descrição |
---|---|
função |
criarThreadEExecutarPedido
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_assistente | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Sim | |
Instruções | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
tokens_máximos_de_conclusão | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
max_prompt_tokens (número máximo de tokens de aviso) | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para obter mais informações. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
chamadas_de_ferramentas_em_paralelo | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | Verdade |
formato_de_resposta | AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configurar para { "type": "json_schema", "json_schema": {...} } ativa saídas estruturadas que asseguram que o modelo corresponderá ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
fluxo | Booleano | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
opções_de_transmissão | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhum |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
conversa | createThreadRequest | Não | ||
escolha_de_ferramenta | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
recursos_ferramenta | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
Não | |
Ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
estratégia de truncamento | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
threadObject
Representa um thread que contém mensagens.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando o thread foi criado. | Sim | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread . |
Sim | |
recursos_ferramenta | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Sim | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não |
objeto Enum: ThreadObjectType
Valor | Descrição |
---|---|
conversa | O tipo de objeto de thread que é sempre thread |
Pedido de Criação de Thread
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
mensagens | matriz | Uma lista de mensagens para iniciar o thread. | Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
recursos_ferramenta | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não | |
└─ armazenamento_de_vetores | matriz | Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não |
modificarThreadRequest
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
recursos_ferramenta | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
└─ interpretador_de_codigo | objecto | Não | ||
└─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
Não | [] |
└─ pesquisa_arquivo | objecto | Não | ||
└─ vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
Não |
deleteThreadResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Suprimido | Booleano | Sim | ||
ID | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteThreadResponseObjectState
Valor | Descrição |
---|---|
thread.excluído | O estado do objeto de resposta de thread de exclusão que é thread.deleted |
listThreadsResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
objetoMensagem
Representa uma mensagem dentro de um thread.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_assistente | cadeia (de caracteres) | Se aplicável, o ID do assistente autor desta mensagem. | Sim | |
Anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. | Sim | |
concluído_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi concluída. | Sim | |
conteúdo | matriz | O conteúdo da mensagem em matriz de texto e/ou imagens. | Sim | |
criado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi criada. | Sim | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
incomplete_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi marcada como incompleta. | Sim | |
detalhes incompletos | objecto | Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. | Sim | |
└─ Justificação | cadeia (de caracteres) | O motivo pelo qual a mensagem está incompleta. | Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.message . |
Sim | |
função | cadeia (de caracteres) | A entidade que produziu a mensagem. Um dos user ou assistant . |
Sim | |
identificador_de_execução | cadeia (de caracteres) | Se aplicável, a ID da execução associada à criação desta mensagem. | Sim | |
estado | cadeia (de caracteres) | O status da mensagem, que pode ser , in_progress incomplete ou completed . |
Sim | |
ID de thread | cadeia (de caracteres) | O ID de threads ao qual esta mensagem pertence. | Sim |
objeto Enum: MessageObjectType
Valor | Descrição |
---|---|
thread.mensagem | O tipo de objeto de mensagem que é thread.message |
Enumerador de status: MessageObjectStatus
Valor | Descrição |
---|---|
em andamento | |
incompleto | |
concluída |
função Enum: MessageObjectRole
Valor | Descrição |
---|---|
utilizador | |
assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
delta | objecto | O delta que contém os campos que foram alterados na mensagem. | Sim | |
└─ conteúdo | matriz | O conteúdo da mensagem em matriz de texto e/ou imagens. | Não | |
└─ função | cadeia (de caracteres) | A entidade que produziu a mensagem. Um dos user ou assistant . |
Não | |
ID | cadeia (de caracteres) | O identificador da mensagem, que pode ser referenciado em pontos de extremidade da API. | Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.message.delta . |
Sim |
objeto Enum: MessageDeltaObjectType
Valor | Descrição |
---|---|
tópico.mensagem.delta |
criarPedidoDeMensagem
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. | Não | |
conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Sim | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
função | cadeia (de caracteres) | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user : Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant : Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Sim |
Enum da função: CreateMessageRequestRole
Valor | Descrição |
---|---|
utilizador | |
assistente |
modificarMessageRequest
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
respostaEliminarMensagem
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Suprimido | Booleano | Sim | ||
ID | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteMessageResponseObject
Valor | Descrição |
---|---|
mensagem do tópico eliminada | O estado do objeto de resposta de mensagem de exclusão |
respostaListaDeMensagens
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
ObjetoFicheiroImagemConteúdoMensagem
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiro de imagem | objecto | Sim | ||
└─ id_do_arquivo | cadeia (de caracteres) | O ID de arquivo da imagem no conteúdo da mensagem. | Não | |
tipo | cadeia (de caracteres) | Sempre image_file . |
Sim |
tipo Enum: MessageContentImageFileObjectType
Valor | Descrição |
---|---|
ficheiro de imagem | O tipo de arquivo de imagem de conteúdo da mensagem |
objetoDeTextoDeConteúdoDaMensagem
O conteúdo de texto que faz parte de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
enviar SMS | objecto | Sim | ||
└─ anotações | matriz | Não | ||
└─ valor | cadeia (de caracteres) | Os dados que compõem o texto. | Não | |
tipo | cadeia (de caracteres) | Sempre text . |
Sim |
Tipo Enum: messageContentTextObjectType
Valor | Descrição |
---|---|
enviar SMS | O texto do conteúdo da mensagem Tipo de objeto |
ConteúdoDaMensagemAnotaçõesDoTextoCitaçãoDoArquivoObjeto
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "recuperação" para pesquisar arquivos.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_final | número inteiro | Sim | ||
citação_de_ficheiro | objecto | Sim | ||
└─ id_do_arquivo | cadeia (de caracteres) | O ID do arquivo específico do qual a citação é originada. | Não | |
start_index | número inteiro | Sim | ||
enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
tipo | cadeia (de caracteres) | Sempre file_citation . |
Sim |
tipo Enum: FileCitationObjectType
Valor | Descrição |
---|---|
citação_de_ficheiro | O tipo de objeto de citação de arquivo |
mensagemConteúdoTextoAnotaçõesCaminhoDoFicheiroObjeto
Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter
ferramenta para gerar um arquivo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_final | número inteiro | Sim | ||
caminho_do_arquivo | objecto | Sim | ||
└─ id_do_arquivo | cadeia (de caracteres) | A ID do arquivo que foi gerado. | Não | |
start_index | número inteiro | Sim | ||
enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
tipo | cadeia (de caracteres) | Sempre file_path . |
Sim |
tipo Enum: FilePathObjectType
Valor | Descrição |
---|---|
caminho_do_arquivo | O tipo de objeto de caminho de arquivo |
messageDeltaContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiro de imagem | objecto | Não | ||
└─ id_do_arquivo | cadeia (de caracteres) | O ID de arquivo da imagem no conteúdo da mensagem. | Não | |
indexar | número inteiro | O índice da parte de conteúdo na mensagem. | Sim | |
tipo | cadeia (de caracteres) | Sempre image_file . |
Sim |
Tipo Enum: MessageDeltaContentImageFileObjectType
Valor | Descrição |
---|---|
ficheiro de imagem |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
indexar | número inteiro | O índice da parte de conteúdo na mensagem. | Sim | |
enviar SMS | objecto | Não | ||
└─ anotações | matriz | Não | ||
└─ valor | cadeia (de caracteres) | Os dados que compõem o texto. | Não | |
tipo | cadeia (de caracteres) | Sempre text . |
Sim |
tipo Enum: MessageDeltaContentTextObjectType
Valor | Descrição |
---|---|
enviar SMS |
mensagemDeltaConteúdoTextoAnotaçõesArquivoCitaçãoObjeto
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Criado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_final | número inteiro | Não | ||
citação_de_ficheiro | objecto | Não | ||
└─ id_do_arquivo | cadeia (de caracteres) | O ID do arquivo específico do qual a citação é originada. | Não | |
└─ citação | cadeia (de caracteres) | A citação específica no arquivo. | Não | |
indexar | número inteiro | O índice da anotação na parte de conteúdo do texto. | Sim | |
start_index | número inteiro | Não | ||
enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | Não | |
tipo | cadeia (de caracteres) | Sempre file_citation . |
Sim |
tipo Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
Valor | Descrição |
---|---|
citação_de_ficheiro |
MessageDeltaContentTextAnnotationsFilePathObject
Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter
ferramenta para gerar um arquivo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_final | número inteiro | Não | ||
caminho_do_arquivo | objecto | Não | ||
└─ id_do_arquivo | cadeia (de caracteres) | A ID do arquivo que foi gerado. | Não | |
indexar | número inteiro | O índice da anotação na parte de conteúdo do texto. | Sim | |
start_index | número inteiro | Não | ||
enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | Não | |
tipo | cadeia (de caracteres) | Sempre file_path . |
Sim |
tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
Valor | Descrição |
---|---|
caminho_do_arquivo |
runStepObject
Representa uma etapa na execução de uma execução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_assistente | cadeia (de caracteres) | A ID do assistente associada à etapa de execução. | Sim | |
cancelado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. | Sim | |
concluído_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. | Sim | |
criado_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi criada. | Sim | |
expirou_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa é considerada expirada se a execução pai tiver expirado. | Sim | |
falhou_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. | Sim | |
ID | cadeia (de caracteres) | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. | Sim | |
último_erro | objecto | O último erro associado a esta etapa de execução. Será null se não houver erros. |
Sim | |
└─ código | cadeia (de caracteres) | Um dos server_error ou rate_limit_exceeded . |
Não | |
└─ mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. | Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre assistant.run.step . |
Sim | |
identificador_de_execução | cadeia (de caracteres) | A ID da execução da qual esta etapa de execução faz parte. | Sim | |
estado | cadeia (de caracteres) | O status da execução, que pode ser in_progress , cancelled , failed , completed , ou expired . |
Sim | |
detalhes_do_passo | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Sim | |
ID de thread | cadeia (de caracteres) | O ID dos threads que foram executados. | Sim | |
tipo | cadeia (de caracteres) | O tipo de etapa de execução, que pode ser ou message_creation tool_calls . |
Sim |
objeto Enum: RunStepObjectType
Valor | Descrição |
---|---|
assistente.run.step | O tipo de objeto, que é sempre assistant.run.step |
tipo Enum: RunStepObjectType
Valor | Descrição |
---|---|
criação_de_mensagem | A etapa de execução message_creation |
tool_calls | A etapa de execução tool_calls |
Enum de estado: RunStepObjectStatus
Valor | Descrição |
---|---|
em andamento | O status de execução do in_progress |
cancelado | O status de execução cancelado |
com falhas | O status de execução cancelado |
concluída | O status de execução cancelado |
expirou | O status de execução cancelado |
runStepDeltaObject
Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
delta | objecto | O delta que contém os campos que foram alterados na etapa de execução. | Sim | |
└─ detalhes_do_passo | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Não | |
ID | cadeia (de caracteres) | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. | Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.run.step.delta . |
Sim |
objeto Enum: RunStepDeltaObjectType
Valor | Descrição |
---|---|
thread.run.step.delta |
listRunStepsResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
executarDetalhesDaEtapaMensagemObjetoCriacao
Detalhes da criação da mensagem pela etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criação_de_mensagem | objecto | Sim | ||
└─ id_da_mensagem | cadeia (de caracteres) | A ID da mensagem que foi criada por esta etapa de execução. | Não | |
tipo | cadeia (de caracteres) | Sempre message_creation . |
Sim |
tipo Enum: RunStepDetailsMessageCreationObjectType
Valor | Descrição |
---|---|
criação_de_mensagem |
If the context requires an explanation in pt-PT for readability and comprehension, one could consider translating each segment for clarity: "Executar Etapa Delta Detalhes da Mensagem Objeto de Criação" If it's meant to remain a variable name, no translation is needed.
Detalhes da criação da mensagem pela etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criação_de_mensagem | objecto | Não | ||
└─ id_da_mensagem | cadeia (de caracteres) | A ID da mensagem que foi criada por esta etapa de execução. | Não | |
tipo | cadeia (de caracteres) | Sempre message_creation . |
Sim |
digite Enum: RunStepDeltaStepDetailsMessageCreationObjectType
Valor | Descrição |
---|---|
criação_de_mensagem |
runStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tool_calls | matriz | Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter , retrieval ou function . |
Sim | |
tipo | cadeia (de caracteres) | Sempre tool_calls . |
Sim |
tipo Enum: RunStepDetailsToolCallsObjectType
Valor | Descrição |
---|---|
tool_calls |
executarEtapaDeltaDetalhesDaChamadaDaFerramentaObjeto
Detalhes da chamada da ferramenta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tool_calls | matriz | Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter , file_search ou function . |
Não | |
tipo | cadeia (de caracteres) | Sempre tool_calls . |
Sim |
tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType
Valor | Descrição |
---|---|
tool_calls |
runStepDetailsToolChamaObjetoDeCódigo
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
interpretador de código | objecto | A definição de chamada da ferramenta Interpretador de Código. | Sim | |
└─ entrada | cadeia (de caracteres) | A entrada para a chamada da ferramenta Interpretador de Código. | Não | |
└─ saídas | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs ) ou imagens (image ). Cada um deles é representado por um tipo de objeto diferente. |
Não | |
ID | cadeia (de caracteres) | O identificador da chamada da ferramenta. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDetailsToolCallsCodeObjectType
Valor | Descrição |
---|---|
interpretador de código |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
interpretador de código | objecto | A definição de chamada da ferramenta Interpretador de Código. | Não | |
└─ entrada | cadeia (de caracteres) | A entrada para a chamada da ferramenta Interpretador de Código. | Não | |
└─ saídas | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs ) ou imagens (image ). Cada um deles é representado por um tipo de objeto diferente. |
Não | |
ID | cadeia (de caracteres) | O identificador da chamada da ferramenta. | Não | |
indexar | número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
Valor | Descrição |
---|---|
interpretador de código |
DetalhesDoPassoDeExecuçãoFerramentaChamaCódigoSaídaRegistosObjeto
Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
registos | cadeia (de caracteres) | A saída de texto da chamada da ferramenta Interpretador de Código. | Sim | |
tipo | cadeia (de caracteres) | Sempre logs . |
Sim |
tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
Valor | Descrição |
---|---|
registos |
executaEtapaDeltaDetalhesDaFerramentaChamadasDeCódigoSaídaRegistosDeObjeto
Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
indexar | número inteiro | O índice da saída na matriz de saídas. | Sim | |
registos | cadeia (de caracteres) | A saída de texto da chamada da ferramenta Interpretador de Código. | Não | |
tipo | cadeia (de caracteres) | Sempre logs . |
Sim |
tipo Enum: TipoDeObjetoDeRegistosDeSaídaDeCódigoDeFerramentasDeDetalhesDeEtapaDeDeltaDeEtapaDeExecução
Valor | Descrição |
---|---|
registos |
DetalhesExecuçãoFerramentaChamaCódigoSaídaImagemObjeto
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
imagem | objecto | Sim | ||
└─ id_do_arquivo | cadeia (de caracteres) | O ID de arquivo da imagem. | Não | |
tipo | cadeia (de caracteres) | Sempre image . |
Sim |
tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
Valor | Descrição |
---|---|
imagem |
executarPassoDeltaPassoDetalhesFerramentaChamaCódigoSaídaImagemObjeto
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
imagem | objecto | Não | ||
└─ id_do_arquivo | cadeia (de caracteres) | O ID do arquivo da imagem. | Não | |
indexar | número inteiro | O índice da saída na matriz de saídas. | Sim | |
tipo | cadeia (de caracteres) | Sempre image . |
Sim |
digite Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
Valor | Descrição |
---|---|
imagem |
runStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
pesquisa de ficheiros | objecto | Por enquanto, este será sempre um objeto vazio. | Sim | |
└─ Resultados | matriz | Os resultados da pesquisa de ficheiros. | Não | |
ID | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
Valor | Descrição |
---|---|
pesquisa de ficheiros |
DetalhesDaEtapaExecuçãoFerramentaChamadasArquivoResultadoPesquisaObjeto
Uma instância de resultado da pesquisa de arquivo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | matriz | O conteúdo do resultado encontrado. O conteúdo só é incluído se solicitado através do parâmetro include query. | Não | |
identificação_de_ficheiro | cadeia (de caracteres) | A ID do arquivo em que o resultado foi encontrado. | Sim | |
nome_do_ficheiro | cadeia (de caracteres) | O nome do arquivo em que o resultado foi encontrado. | Sim | |
classificação | número | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. | Sim |
FerramentaDetalhesPassoDeltaChamaPesquisaFicheiroObjeto
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
pesquisa de ficheiros | objecto | Por enquanto, este será sempre um objeto vazio. | Sim | |
ID | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | Não | |
indexar | número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. |
Sim |
digite Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
Valor | Descrição |
---|---|
pesquisa de ficheiros |
runStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | A definição da função que foi chamada. | Sim | |
└─ argumentos | cadeia (de caracteres) | Os argumentos passaram para a função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função. | Não | |
└─ saída | cadeia (de caracteres) | A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. |
Não | |
ID | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Sim |
Enum: RunStepDetailsToolCallsFunctionObjectType
Valor | Descrição |
---|---|
função |
executarPassoDeltaDetalhesDaFerramentaChamaObjetoDeFunção
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
função | objecto | A definição da função que foi chamada. | Não | |
└─ argumentos | cadeia (de caracteres) | Os argumentos passaram para a função. | Não | |
└─ nome | cadeia (de caracteres) | O nome da função. | Não | |
└─ saída | cadeia (de caracteres) | A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. |
Não | |
ID | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | Não | |
indexar | número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Sim |
Enum: RunStepDetailsToolCallsFunctionObjectType
Valor | Descrição |
---|---|
função |
expiraçãoDoArmazenamentoVectoresApós
A política de expiração para um repositório de vetores.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
âncora | cadeia (de caracteres) | Carimbo de data/hora âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at . |
Sim | |
Dias | número inteiro | O número de dias após o tempo de ancoragem que o armazenamento do vetor expirará. | Sim |
âncora Enum: Expiração do Armazenamento de Vetores Após Âncora
Valor | Descrição |
---|---|
última_atividade_em | O carimbo de data/hora âncora após o qual a política de expiração se aplica. |
vectorStoreObject
Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search
ferramenta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criado_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi criado. | Sim | |
expira após | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
expira_em | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando o armazenamento vetorial expirará. | Não | |
contagem_de_ficheiros | objecto | Sim | ||
└─ Cancelado | número inteiro | O número de arquivos que foram cancelados. | Não | |
└─ concluída | número inteiro | O número de arquivos que foram processados com êxito. | Não | |
└─ não conseguiu | número inteiro | O número de arquivos que não conseguiram processar. | Não | |
└─ em progresso | número inteiro | O número de arquivos que estão sendo processados no momento. | Não | |
└─ total | número inteiro | O número total de ficheiros. | Não | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
última_atividade_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi ativo pela última vez. | Sim | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
nome | cadeia (de caracteres) | O nome do repositório de vetores. | Sim | |
objecto | enumeração | O tipo de objeto, que é sempre vector_store .Valores possíveis: vector_store |
Sim | |
estado | cadeia (de caracteres) | O status do armazenamento vetorial, que pode ser , expired in_progress ou completed . Um status de indica que o armazenamento de completed vetores está pronto para uso. |
Sim | |
bytes de uso | número inteiro | O número total de bytes usados pelos arquivos no armazenamento vetorial. | Sim |
status Enum: VectorStoreObjectStatus
Valor | Descrição |
---|---|
expirou | |
em andamento | |
concluída |
criarPedidoDeArmazenamentoVetorial
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
Não | |
expira após | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
identificadores_de_arquivo | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
nome | cadeia (de caracteres) | O nome do repositório de vetores. | Não |
pedidoDeAtualizaçãoDaLojaVetorial
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
expira após | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
nome | cadeia (de caracteres) | O nome do repositório de vetores. | Não |
listVectorStoresResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
deleteVectorStoreResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Suprimido | Booleano | Sim | ||
ID | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteVectorStoreResponseObject
Valor | Descrição |
---|---|
vetor_store.deleted | O estado do objeto de resposta do repositório de vetores de exclusão |
vectorStoreFileObject
Uma lista de arquivos anexados a um repositório vetorial.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
Não | |
criado_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. | Sim | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
último_erro | objecto | O último erro associado a este arquivo de armazenamento vetorial. Será null se não houver erros. |
Sim | |
└─ código | cadeia (de caracteres) | Um de server_error ou invalid_file unsupported_file ou . |
Não | |
└─ mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. | Não | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre vector_store.file . |
Sim | |
estado | cadeia (de caracteres) | O status do arquivo de armazenamento vetorial, que pode ser in_progress , completed , cancelled , ou failed . O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. |
Sim | |
bytes de uso | número inteiro | O uso total do armazenamento de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Sim | |
identificador_de_armazenamento_vetor | cadeia (de caracteres) | A ID do armazenamento de vetores ao qual o arquivo está anexado. | Sim |
objeto Enum: VectorStoreFileObjectType
Valor | Descrição |
---|---|
vetor_store.file |
Status Enum: VectorStoreFileObjectStatus
Valor | Descrição |
---|---|
em andamento | |
concluída | |
cancelado | |
com falhas |
outroParâmetroDeRespostaDaEstratégiaDeFragmentação
Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy
conceito ser introduzido na API.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | cadeia (de caracteres) | Sempre other . |
Sim |
tipo Enum: OtherChunkingStrategyResponseParamType
Valor | Descrição |
---|---|
Outros |
estratégiaDeSegmentaçãoEstáticaParâmetroDeResposta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estático | staticChunkingStrategy | Sim | ||
tipo | cadeia (de caracteres) | Sempre static . |
Sim |
tipo Enum: StaticChunkingStrategyResponseParamType
Valor | Descrição |
---|---|
estático |
estratégiaDeSegmentaçãoEstática
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
sobreposição_de_fragamentos_tokens | número inteiro | O número de tokens que se sobrepõem entre partes. O valor predefinido é 400 .Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens . |
Sim | |
tamanho_máximo_porção_tokens | número inteiro | O número máximo de tokens em cada bloco. O valor predefinido é 800 . O valor mínimo é 100 e o valor máximo é 4096 . |
Sim |
parâmetroDePedidoDeEstratégiaDeAutoSegmentação
A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens
de 800
e chunk_overlap_tokens
de 400
.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | Sempre auto .Valores possíveis: auto |
Sim |
parâmetroDeSolicitaçãoDeEstratégiaDeSegmentaçãoEstática
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estático | staticChunkingStrategy | Sim | ||
tipo | enumeração | Sempre static .Valores possíveis: static |
Sim |
ParâmetroDeSolicitaçãoDeEstratégiaDeDivisão
A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto
estratégia.
Este componente pode ser um dos seguintes:
createVectorStoreFileRequest
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não | |
identificação_de_ficheiro | cadeia (de caracteres) | Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim |
listVectorStoreFilesResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Sim | ||
first_id | cadeia (de caracteres) | Sim | ||
tem_mais | Booleano | Sim | ||
last_id | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
deleteVectorStoreFileResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Suprimido | Booleano | Sim | ||
ID | cadeia (de caracteres) | Sim | ||
objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteVectorStoreFileResponseObject
Valor | Descrição |
---|---|
vetor_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um armazenamento vetorial.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criado_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos de armazenamento vetorial foi criado. | Sim | |
contagem_de_ficheiros | objecto | Sim | ||
└─ Cancelado | número inteiro | O número de arquivos que foram cancelados. | Não | |
└─ concluída | número inteiro | O número de arquivos que foram processados. | Não | |
└─ não conseguiu | número inteiro | O número de arquivos que não conseguiram processar. | Não | |
└─ em progresso | número inteiro | O número de arquivos que estão sendo processados no momento. | Não | |
└─ total | número inteiro | O número total de ficheiros. | Não | |
ID | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre vector_store.file_batch . |
Sim | |
estado | cadeia (de caracteres) | O status do lote de arquivos de armazenamento vetorial, que pode ser in_progress , completed cancelled ou failed . |
Sim | |
identificador_de_armazenamento_vetor | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o arquivo está anexado. | Sim |
objeto Enum: VectorStoreFileBatchObjectType
Valor | Descrição |
---|---|
vetor_store.files_lote |
status Enum: VectorStoreFileBatchObjectStatus
Valor | Descrição |
---|---|
em andamento | |
concluída | |
cancelado | |
com falhas |
createVectorStoreFileBatchRequest
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
estratégia_de_segmentação | ParâmetroDeRequisiçãoDeEstratégiaDeFragmentação | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não | |
identificadores_de_arquivo | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim |
assistantStreamEvent
Representa um evento emitido durante o streaming de uma Execução.
Cada evento em um fluxo de eventos enviado pelo servidor tem uma event
propriedade e data
:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created
quando uma nova execução é criada, thread.run.completed
quando uma execução é concluída e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma corrida, emitimos um thread.message.created event
, um thread.message.in_progress
evento, muitos thread.message.delta
eventos e, finalmente, um thread.message.completed
evento.
Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos lidar com eventos desconhecidos graciosamente em seu código.
Este componente pode ser um dos seguintes:
threadStreamEvent
Este componente pode ser um dos seguintes:
thread.criado
Ocorre quando um novo thread é criado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | threadObject | Representa um thread que contém mensagens. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: threadObject
Enum do evento: ThreadStreamEventEnum
Valor | Descrição |
---|---|
thread.criado | O evento criado pelo thread |
runStreamEvent
Este componente pode ser um dos seguintes:
thread.run.criado
Ocorre quando uma nova execução é criada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventCreated
Valor | Descrição |
---|---|
thread.run.criado |
thread.run.queued
Ocorre quando uma execução é movida para um queued
status.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventQueued
Valor | Descrição |
---|---|
thread.run.queued |
execução_da_tarefa_em_andamento
Ocorre quando uma execução é movida para um in_progress
status.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventInProgress
Valor | Descrição |
---|---|
execução_da_tarefa_em_andamento |
execução_do_fio.exige_ação
Ocorre quando uma execução é movida para um requires_action
status.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventRequiresAction
Valor | Descrição |
---|---|
execução_do_fio.exige_ação |
thread.run.concluído
Ocorre quando uma execução é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventCompleted
Valor | Descrição |
---|---|
thread.run.concluído |
falha na execução da thread
Ocorre quando uma execução falha.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventFailed
Valor | Descrição |
---|---|
falha na execução da thread |
thread.run.cancelamento
Ocorre quando uma execução é movida para um cancelling
status.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventCancelling
Valor | Descrição |
---|---|
thread.run.cancelamento |
thread.run.cancelada
Ocorre quando uma execução é cancelada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventCancelled
Valor | Descrição |
---|---|
thread.run.cancelada |
thread.run.expirado
Ocorre quando uma execução expira.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runObject | Representa uma execução executada em um threads. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runObject
Enum do evento: RunStreamEventExpired
Valor | Descrição |
---|---|
thread.run.expirado |
runStepStreamEvent
Este componente pode ser um dos seguintes:
thread.executar.etapa.criada
Ocorre quando uma etapa de execução é criada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventCreated
Valor | Descrição |
---|---|
thread.executar.etapa.criada |
thread.run.passos.em_progresso
Ocorre quando uma etapa de execução se move para um in_progress
estado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventInProgress
Valor | Descrição |
---|---|
thread.run.passos.em_progresso |
thread.run.step.delta
Ocorre quando partes de uma etapa de execução estão sendo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepDeltaObject | Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepDeltaObject
Enum do evento: RunStepStreamEventDelta
Valor | Descrição |
---|---|
thread.run.step.delta |
thread.execução.passo.completado
Ocorre quando uma etapa de execução é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventCompleted
Valor | Descrição |
---|---|
thread.execução.passo.completado |
Erro ao executar passo do fio
Ocorre quando uma etapa de execução falha.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventFailed
Valor | Descrição |
---|---|
Erro ao executar passo do fio |
thread.run.step.cancelado
Ocorre quando uma etapa de execução é cancelada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepObject
Enum do Evento: RunStepStreamEventCancelled
Valor | Descrição |
---|---|
thread.run.step.cancelado |
execução.da.tarefa.passo.expirou
Ocorre quando uma etapa de execução expira.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventExpired
Valor | Descrição |
---|---|
execução.da.tarefa.passo.expirou |
eventoFluxoDeMensagens
Este componente pode ser um dos seguintes:
Mensagem criada em thread
Ocorre quando uma mensagem é criada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventCreated
Valor | Descrição |
---|---|
Mensagem criada em thread |
mensagem.em_progresso
Ocorre quando uma mensagem é movida para um in_progress
estado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventInProgress
Valor | Descrição |
---|---|
mensagem.em_progresso |
tópico.mensagem.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | messageDeltaObject | Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming. |
Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: messageDeltaObject
Enum do evento: MessageStreamEventDelta
Valor | Descrição |
---|---|
tópico.mensagem.delta |
mensagem.do.tópico.concluída
Ocorre quando uma mensagem é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventCompleted
Valor | Descrição |
---|---|
mensagem.do.tópico.concluída |
thread.message.incompleto
Ocorre quando uma mensagem termina antes de ser concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
evento | cadeia (de caracteres) | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventIncomplete
Valor | Descrição |
---|---|
thread.message.incompleto |
Anotação
Este componente pode ser um dos seguintes:
Clique em
Uma ação de clique.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
botão | enumeração | Indica qual botão do mouse foi pressionado durante o clique. Um de left , right , wheel , back , ou forward .Valores possíveis: left , right , wheel , back , , forward |
Sim | |
tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click .Valores possíveis: click |
Sim | |
x | número inteiro | A coordenada x onde ocorreu o clique. |
Sim | |
y | número inteiro | A coordenada y onde ocorreu o clique. |
Sim |
SaídaDeFicheiroDoInterpretadorDeCódigo
A saída de um ficheiro gerada por uma chamada de ferramenta de interpretador de código.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ficheiros | matriz | Sim | ||
tipo | enumeração | O tipo de saída do arquivo do interpretador de código. Sempre files .Valores possíveis: files |
Sim |
SaídaDeTextoDoInterpretadorDeCódigo
A saída de uma chamada de ferramenta de interpretador de código que é texto.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
registos | cadeia (de caracteres) | Os registos da chamada do intérprete de código. |
Sim | |
tipo | enumeração | O tipo de saída de texto do interpretador de código. Sempre logs .Valores possíveis: logs |
Sim |
CodeInterpreterTool
Uma ferramenta que executa código.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificadores_de_arquivo | matriz | As IDs dos arquivos nos quais executar o código. |
Sim | |
tipo | enumeração | O tipo da ferramenta de interpretador de código. Sempre code_interpreter .Valores possíveis: code_interpreter |
Sim |
CodeInterpreterToolCall
Uma chamada de ferramenta para executar código.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | cadeia (de caracteres) | O código a ser executado. |
Sim | |
ID | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta de interpretação de código. |
Sim | |
Resultados | matriz | Os resultados da invocação da ferramenta de interpretação de código. |
Sim | |
estado | enumeração | O estado da chamada da ferramenta intérprete de código. Valores possíveis: in_progress , interpreting , completed |
Sim | |
tipo | enumeração | O tipo de chamada da ferramenta de interpretação de código. Sempre code_interpreter_call .Valores possíveis: code_interpreter_call |
Sim |
SaídaDaFerramentaInterpretadorDeCódigo
Este componente pode ser um dos seguintes:
ComparaçãoFiltro
Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chave | cadeia (de caracteres) | A chave pela qual se compara o valor. | Sim | |
tipo | enumeração | Especifica o operador de comparação: eq , ne , gt , gte , lt , lte .- eq : igual a- ne : não igual- gt : superior a- gte : maior ou igual- lt : menos de- lte : menor ou igualValores possíveis: eq , ne , gt , gte , , lt , lte |
Sim | |
valor | string ou número ou booleano | O valor a ser comparado com a chave de atributo; suporta tipos de string, número ou booleanos. | Sim |
FiltroComposto
Combine vários filtros usando and
ou or
.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtros | matriz | Matriz de filtros para combinar. Os itens podem ser ComparisonFilter ou CompoundFilter . |
Sim | |
tipo | enumeração | Tipo de operação: and ou or .Valores possíveis: and , or |
Sim |
ComputerAction
Este componente pode ser um dos seguintes:
ComputadorCapturaDeEcrãImagem
Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificação_de_ficheiro | cadeia (de caracteres) | O identificador de um arquivo carregado que contém a captura de tela. | Não | |
image_url | cadeia (de caracteres) | O URL da imagem da captura de tela. | Não | |
tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot .Valores possíveis: computer_screenshot |
Sim |
Ferramenta Informática
Uma ferramenta que controla um computador virtual.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
altura do ecrã | número | A altura do ecrã do computador. |
Sim | |
largura de exibição | número | A largura do ecrã do computador. |
Sim | |
ambiente | enumeração | O tipo de ambiente de computador a controlar. Valores possíveis: mac , windows , ubuntu , browser |
Sim | |
tipo | enumeração | O tipo de ferramenta de uso do computador. Sempre computer_use_preview .Valores possíveis: computer-use-preview |
Sim |
ComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ação | ComputerAction | Sim | ||
ID de chamada | cadeia (de caracteres) | Um identificador usado ao responder a uma solicitação da ferramenta com resultados. |
Sim | |
ID | cadeia (de caracteres) | O identificador exclusivo da chamada do computador. | Sim | |
verificações_de_segurança_pendentes | matriz | As verificações de segurança pendentes para a chamada do computador. |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Sim | |
tipo | enumeração | O tipo da chamada do computador. Sempre computer_call .Valores possíveis: computer_call |
Sim |
ComputerToolCallOutput
A saída de uma chamada de ferramenta de computador.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
verificações_de_segurança_reconhecidas | matriz | As verificações de segurança relatadas pela API que foram reconhecidas pelo desenvolvedor. |
Não | |
ID de chamada | cadeia (de caracteres) | O ID da chamada de ferramenta de computador que produziu a saída. |
Sim | |
ID | cadeia (de caracteres) | O ID da saída da chamada da ferramenta de computador. |
Não | |
output | ImagemDeCapturaDoEcrãDoComputador | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Sim | |
estado | enumeração | O estado da entrada de mensagem. Um de in_progress , completed ou incomplete . Preenchido quando os itens de entrada são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo de saída da chamada da ferramenta do computador. Sempre computer_call_output .Valores possíveis: computer_call_output |
Sim |
ComputerToolCallOutputResource
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
verificações_de_segurança_reconhecidas | matriz | As verificações de segurança relatadas pela API que foram reconhecidas pelo desenvolvedor. |
Não | |
ID de chamada | cadeia (de caracteres) | O ID da chamada de ferramenta de computador que produziu a saída. |
Sim | |
ID | cadeia (de caracteres) | O ID exclusivo da saída da ferramenta de chamada do computador. |
Sim | |
output | ImagemDeCapturaDoEcrãDoComputador | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Sim | |
estado | enumeração | O estado da entrada de mensagem. Um de in_progress , completed ou incomplete . Preenchido quando os itens de entrada são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo de saída da chamada da ferramenta do computador. Sempre computer_call_output .Valores possíveis: computer_call_output |
Sim |
Verificação de Segurança da Chamada de Ferramenta do Computador
Uma verificação de segurança pendente para a chamada no computador.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | cadeia (de caracteres) | O tipo de verificação de segurança pendente. | Sim | |
ID | cadeia (de caracteres) | ID da verificação de segurança pendente. | Sim | |
mensagem | cadeia (de caracteres) | Detalhes sobre a verificação de segurança pendente. | Sim |
Conteúdo
Conteúdos multimodais de entrada e saída.
Este componente pode ser um dos seguintes:
Coordenar
Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
x | número inteiro | A coordenada x. |
Sim | |
y | número inteiro | A coordenada y. |
Sim |
CriarPropriedadesDeRespostaDoModelo
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | Metadados | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | Modelo utilizado para gerar as respostas. | Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. . |
Não |
createResponse
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
incluem | matriz | {"$ref": "#/components/schemas/includable/description"} | Não | |
dados introduzidos | cadeia de caracteres ou matriz | Entradas de texto, imagem ou arquivo no modelo, usadas para gerar uma resposta. | Sim | |
Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id , as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Não | |
max_output_tokens (máximo de tokens de saída) | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio. |
Não | |
chamadas_de_ferramentas_em_paralelo | Booleano | Se deve permitir que o modelo execute chamadas de ferramenta em paralelo. |
Não | Verdade |
ID_de_resposta_anterior | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. | Não | |
Fundamentação | Fundamentação |
Apenas modelos da série O Opções de configuração para modelos de raciocínio. |
Não | |
armazenar | Booleano | Se a resposta do modelo gerado deve ser armazenada para recuperação posterior via API. |
Não | Verdade |
fluxo | Booleano | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. | Não | Falso |
enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
Não | |
└─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
Não | |
escolha_de_ferramenta | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Não | |
Ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas incorporadas |
Não | |
truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto : Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o para se ajustar à janela de contexto, removendo itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto , disabled |
Não |
DoubleClick
Uma ação de clique duplo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click .Valores possíveis: double_click |
Sim | |
x | número inteiro | A coordenada x onde ocorreu o duplo clique. |
Sim | |
y | número inteiro | A coordenada y onde ocorreu o duplo clique. |
Sim |
Arraste
Uma ação de arrastar.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
caminho | matriz | Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas aparecerão como uma matriz de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Sim | |
tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag .Valores possíveis: drag |
Sim |
MensagemDeEntradaSimples
Uma entrada de mensagem para o modelo com uma função que indica a adesão a uma hierarquia de instruções. As instruções dadas com a developer
função ou system
têm precedência sobre as instruções dadas com a user
função. Presume-se que as mensagens com a assistant
função tenham sido geradas pelo modelo em interações anteriores.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | string ou InputMessageContentList | Entrada de texto, imagem ou áudio no modelo, usada para gerar uma resposta. Também pode conter respostas anteriores do assistente. |
Sim | |
função | enumeração | A função da entrada de mensagem. Um de user , assistant , system , ou developer .Valores possíveis: user , assistant , system , developer |
Sim | |
tipo | enumeração | O tipo de entrada de mensagem. Sempre message .Valores possíveis: message |
Não |
FileCitation
Uma citação a um ficheiro.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificação_de_ficheiro | cadeia (de caracteres) | A ID do arquivo. |
Sim | |
indexar | número inteiro | O índice do arquivo na lista de arquivos. |
Sim | |
tipo | enumeração | O tipo de citação do arquivo. Sempre file_citation .Valores possíveis: file_citation |
Sim |
FilePath
Um caminho para um arquivo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificação_de_ficheiro | cadeia (de caracteres) | A ID do arquivo. |
Sim | |
indexar | número inteiro | O índice do arquivo na lista de arquivos. |
Sim | |
tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path .Valores possíveis: file_path |
Sim |
FileSearchRanker
O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, será utilizado o auto
ranker.
Propriedade | Valor |
---|---|
Descrição | O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, será utilizado o auto ranker. |
Tipo | cadeia (de caracteres) |
Valores | auto default_2024_08_21 |
FerramentaDePesquisaDeFicheiros
Uma ferramenta que procura conteúdo relevante a partir de ficheiros carregados.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtros | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | Não | |
máximo_número_de_resultados | número inteiro | O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. |
Não | |
opções_de_classificação | objecto | Opções de classificação para pesquisa. | Não | |
└─ classificador | enumeração | O classificador a ser usado para a pesquisa de arquivos. Valores possíveis: auto , default-2024-11-15 |
Não | |
└─ limiar_de_pontuação | número | O limite de pontuação para a pesquisa de ficheiros, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. |
Não | 0 |
tipo | enumeração | O tipo da ferramenta de pesquisa de ficheiros. Sempre file_search .Valores possíveis: file_search |
Sim | |
identificadores_de_armazém_de_vectores | matriz | Os IDs do vetor armazena para pesquisar. |
Sim |
FileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivos.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ID | cadeia (de caracteres) | A ID única da chamada da ferramenta de pesquisa de ficheiros. |
Sim | |
consultas | matriz | As consultas usadas para procurar arquivos. |
Sim | |
Resultados | matriz | Os resultados da chamada da ferramenta de pesquisa de ficheiros. |
Não | |
estado | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um dos in_progress , searching incomplete ou failed ,Valores possíveis: in_progress , searching , completed , incomplete , , failed |
Sim | |
tipo | enumeração | O tipo de chamada da ferramenta de pesquisa de ficheiros. Sempre file_search_call .Valores possíveis: file_search_call |
Sim |
FunctionTool
Define uma função no seu próprio código que o modelo pode optar por chamar.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada. |
Não | |
nome | cadeia (de caracteres) | O nome da função a ser chamada. |
Sim | |
parâmetros | objecto | Um objeto de esquema JSON que descreve os parâmetros da função. |
Sim | |
rigoroso | Booleano | Se a validação de parâmetros estrita deve ser imposta. Padrão true . |
Sim | |
tipo | enumeração | O tipo da ferramenta de função. Sempre function .Valores possíveis: function |
Sim |
FunctionToolCall
Uma chamada de ferramenta para executar uma função.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Argumentos | cadeia (de caracteres) | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Sim | |
ID de chamada | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo. |
Sim | |
ID | cadeia (de caracteres) | O ID único da chamada da ferramenta de função. |
Sim | |
nome | cadeia (de caracteres) | O nome da função a ser executada. |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo de chamada da ferramenta funcional. Sempre function_call .Valores possíveis: function_call |
Sim |
FunctionToolCallOutput
A saída de uma chamada de ferramenta funcional.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ID de chamada | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo. |
Sim | |
ID | cadeia (de caracteres) | O identificador exclusivo da saída de chamada da ferramenta de função. Preenchido quando este item é retornado via API. |
Não | |
output | cadeia (de caracteres) | Uma cadeia de caracteres JSON da saída da chamada da ferramenta funcional. |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output .Valores possíveis: function_call_output |
Sim |
FunctionToolCallOutputResource
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ID de chamada | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo. |
Sim | |
ID | cadeia (de caracteres) | O ID exclusivo da saída da ferramenta de chamada de função. |
Sim | |
output | cadeia (de caracteres) | Uma cadeia de caracteres JSON da saída da chamada da ferramenta funcional. |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output .Valores possíveis: function_call_output |
Sim |
incluível
Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores atualmente suportados são:
-
file_search_call.results
: Inclua os resultados da ferramenta de pesquisa de arquivos na chamada de pesquisa. -
message.input_image.image_url
: Inclua URLs de imagem da mensagem de entrada. -
computer_call_output.output.image_url
: Inclua URLs de imagens dos resultados da chamada no computador.
Propriedade | Valor |
---|---|
Descrição | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores atualmente suportados são: - file_search_call.results : Inclua nos resultados da pesquisa a chamada à ferramenta de pesquisa de arquivos.- message.input_image.image_url : Inclua urls de imagem da mensagem de entrada.- computer_call_output.output.image_url : Inclua URLs de imagens da saída de chamada do computador. |
Tipo | cadeia (de caracteres) |
Valores | file_search_call.results message.input_image.image_url computer_call_output.output.image_url |
Entrada de Áudio
Uma entrada de áudio para o modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | cadeia (de caracteres) | Dados de áudio codificados em Base64. |
Sim | |
Formato | enumeração | O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav .Valores possíveis: mp3 , wav |
Sim | |
tipo | enumeração | O tipo do item de entrada. Sempre input_audio .Valores possíveis: input_audio |
Sim |
Conteúdo de Entrada
Este componente pode ser um dos seguintes:
Arquivo de Entrada
Uma entrada de arquivo para o modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados_do_arquivo | cadeia (de caracteres) | O conteúdo do arquivo a ser enviado para o modelo. |
Não | |
identificação_de_ficheiro | cadeia (de caracteres) | A ID do arquivo a ser enviado para o modelo. |
Não | |
nome do ficheiro | cadeia (de caracteres) | O nome do arquivo a ser enviado para o modelo. |
Não | |
tipo | enumeração | O tipo do item de entrada. Sempre input_file .Valores possíveis: input_file |
Sim |
Imagem de Entrada
Uma entrada de imagem para o modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
detalhe | enumeração | O nível de detalhe da imagem a ser enviada para o modelo. Um de high , low ou auto . O padrão é auto .Valores possíveis: high , low , auto |
Sim | |
identificação_de_ficheiro | cadeia (de caracteres) | A ID do arquivo a ser enviado para o modelo. |
Não | |
image_url | cadeia (de caracteres) | O URL da imagem a ser enviada para o modelo. Um URL totalmente qualificado ou uma imagem codificada em base64 em um URL de dados. |
Não | |
tipo | enumeração | O tipo do item de entrada. Sempre input_image .Valores possíveis: input_image |
Sim |
Item de Entrada
Este componente pode ser um dos seguintes:
Mensagem de Entrada
Uma entrada de mensagem para o modelo com uma função que indica a adesão a uma hierarquia de instruções. As instruções dadas com a developer
função ou system
têm precedência sobre as instruções dadas com a user
função.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | ListaDeConteúdoDeMensagemDeEntrada | Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdo diferente tipos. |
Sim | |
função | enumeração | A função da entrada de mensagem. Um de user , system ou developer .Valores possíveis: user , system , developer |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo de entrada de mensagem. Sempre definido como message .Valores possíveis: message |
Não |
ListaDeConteúdoDeMensagemDeEntrada
Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes tipos de conteúdo.
Nenhuma propriedade definida para este componente.
RecursoDeMensagemDeEntrada
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | ListaDeConteúdoDeMensagemDeEntrada | Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdo diferente tipos. |
Sim | |
ID | cadeia (de caracteres) | O ID exclusivo da mensagem de entrada. |
Sim | |
função | enumeração | A função da entrada de mensagem. Um de user , system ou developer .Valores possíveis: user , system , developer |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo de entrada de mensagem. Sempre definido como message .Valores possíveis: message |
Não |
Insira texto
Uma entrada de texto para o modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
enviar SMS | cadeia (de caracteres) | A entrada de texto para o modelo. |
Sim | |
tipo | enumeração | O tipo do item de entrada. Sempre input_text .Valores possíveis: input_text |
Sim |
Iteme
Item de conteúdo usado para gerar uma resposta.
Este componente pode ser um dos seguintes:
- InputMessage
- Mensagem de saída
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- Item de Raciocínio
Referência de Item
Um identificador interno para um item a ser referenciado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ID | cadeia (de caracteres) | A ID do item a ser referenciado. |
Sim | |
tipo | enumeração | O tipo de item a ser referenciado. Sempre item_reference .Valores possíveis: item_reference |
Sim |
Recurso de Item
Item de conteúdo usado para gerar uma resposta.
Este componente pode ser um dos seguintes:
- InputMessageResource
- Mensagem de saída
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
Pressionamento de tecla
Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Teclas | matriz | A combinação de teclas que o modelo está solicitando para ser pressionada. Esta é uma matriz de cadeias de caracteres, cada uma representando uma chave. |
Sim | |
tipo | enumeração | Especifica o tipo de evento. Para uma ação de pressionamento de teclas, essa propriedade é sempre definida como keypress .Valores possíveis: keypress |
Sim |
Metadados
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel.
As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Nenhuma propriedade definida para este componente.
PropriedadesDeRespostaDoModelo
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
metadados | Metadados | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Não | |
modelo | cadeia (de caracteres) | Modelo utilizado para gerar as respostas. | Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. . |
Não |
Mover
Uma ação de movimento do mouse.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move .Valores possíveis: move |
Sim | |
x | número inteiro | A coordenada x para a qual mover. |
Sim | |
y | número inteiro | A coordenada y para a qual mover. |
Sim |
Saída de Áudio
Uma saída de áudio do modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | cadeia (de caracteres) | Dados de áudio codificados em Base64 do modelo. |
Sim | |
transcrição | cadeia (de caracteres) | A transcrição dos dados de áudio do modelo. |
Sim | |
tipo | enumeração | O tipo de áudio de saída. Sempre output_audio .Valores possíveis: output_audio |
Sim |
Conteúdo de Saída
Este componente pode ser um dos seguintes:
Item de Saída
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
ação | ComputerAction | Sim | ||
Argumentos | cadeia (de caracteres) | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Sim | |
ID de chamada | cadeia (de caracteres) | Um identificador usado ao responder a uma solicitação da ferramenta com resultados. |
Sim | |
conteúdo | matriz | Fundamentação do conteúdo do texto. |
Sim | |
ID | cadeia (de caracteres) | O identificador exclusivo do conteúdo do raciocínio. |
Sim | |
nome | cadeia (de caracteres) | O nome da função a ser executada. |
Sim | |
verificações_de_segurança_pendentes | matriz | As verificações de segurança pendentes para a chamada do computador. |
Sim | |
consultas | matriz | As consultas usadas para procurar arquivos. |
Sim | |
Resultados | matriz | Os resultados da chamada da ferramenta de pesquisa de ficheiros. |
Não | |
função | enumeração | A função da mensagem de saída. Sempre assistant .Valores possíveis: assistant |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Sim | |
tipo | enumeração | O tipo do objeto. Sempre reasoning .Valores possíveis: reasoning |
Sim |
Mensagem de saída
Uma mensagem de saída do modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | matriz | O conteúdo da mensagem de saída. |
Sim | |
ID | cadeia (de caracteres) | O ID exclusivo da mensagem de saída. |
Sim | |
função | enumeração | A função da mensagem de saída. Sempre assistant .Valores possíveis: assistant |
Sim | |
estado | enumeração | O estado da entrada de mensagem. Um de in_progress , completed ou incomplete . Preenchido quando os itens de entrada são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Sim | |
tipo | enumeração | O tipo da mensagem de saída. Sempre message .Valores possíveis: message |
Sim |
Texto de Saída
Uma saída de texto do modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
anotações | matriz | As anotações sobre a saída de texto. |
Sim | |
enviar SMS | cadeia (de caracteres) | A saída de texto do modelo. |
Sim | |
tipo | enumeração | O tipo do texto de saída. Sempre output_text .Valores possíveis: output_text |
Sim |
Requisição de Criação de Sessão em Tempo Real
Configuração de objeto de sessão em tempo real.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
formato_de_entrada_de_áudio | enumeração | O formato de entrada de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw .Para pcm16 , o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16 , g711_ulaw , g711_alaw |
Não | |
redução_de_ruído_de_entrada_áudio | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
Não | |
└─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field , far_field |
Não | |
transcrição_de_áudio_de_entrada | objecto | Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do ponto de extremidade das transcrições e deve ser tratada como orientação sobre o conteúdo do áudio de entrada, em vez de exatamente o que o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
Não | |
└─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) en melhorará a precisão e a latência. |
Não | |
└─ modelo | cadeia (de caracteres) | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe , gpt-4o-mini-transcribe e whisper-1 . |
Não | |
└─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1 , o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
Não | |
Instruções | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão. |
Não | |
tokens_de_output_de_resposta_máxima | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf . |
Não | |
Modalidades | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
Não | ||
modelo | cadeia (de caracteres) | O nome da implementação utilizada para esta sessão. |
Não | |
formato_de_áudio_de_saida | enumeração | O formato de saída de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw .Para pcm16 , o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16 , g711_ulaw , g711_alaw |
Não | |
temperatura | número | Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para o melhor desempenho. |
Não | 0.8 |
escolha_de_ferramenta | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto , none , required , ou especificar uma função. |
Não | automóvel |
Ferramentas | matriz | Ferramentas (funções) disponíveis para o modelo. | Não | |
detecção de viragem | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm , o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
Não | |
└─ criar_resposta | Booleano | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. |
Não | Verdade |
└─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad . A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium .Valores possíveis: low , medium , high , auto |
Não | |
└─ resposta_de_interrupção | Booleano | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto ) quando ocorre um evento de início de VAD. |
Não | Verdade |
└─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad . Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
Não | |
└─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad . Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
Não | |
└─ limiar | número | Usado apenas para o modo server_vad . Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
Não | |
└─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad , semantic_vad |
Não | |
voz | VoiceIdsShared | Não |
RealtimeSessionCreateResponse
Uma nova configuração de sessão em tempo real, com uma chave efémera. O TTL padrão para chaves é de um minuto.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
segredo_do_cliente | objecto | Chave efêmera retornada pela API. | Sim | |
└─ expira_em | número inteiro | Data de expiração do token. Atualmente, todos os tokens expiram após um minuto. |
Não | |
└─ valor | cadeia (de caracteres) | Chave efêmera utilizável em ambientes cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
Não | |
formato_de_entrada_de_áudio | cadeia (de caracteres) | O formato de entrada de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw . |
Não | |
transcrição_de_áudio_de_entrada | objecto | Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do Whisper e deve ser tratada como orientação aproximada em vez da representação entendida pelo modelo. |
Não | |
└─ modelo | cadeia (de caracteres) | O modelo a ser usado para transcrição whisper-1 é o único modelo atualmente suportado. |
Não | |
Instruções | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão. |
Não | |
tokens_de_output_de_resposta_máxima | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf . |
Não | |
Modalidades | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
Não | ||
formato_de_áudio_de_saida | cadeia (de caracteres) | O formato de saída de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw . |
Não | |
temperatura | número | Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. O padrão é 0,8. |
Não | |
escolha_de_ferramenta | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto , none , required , ou especificar uma função. |
Não | |
Ferramentas | matriz | Ferramentas (funções) disponíveis para o modelo. | Não | |
detecção de viragem | objecto | Configuração para deteção de turnos. Pode ser configurado para null para desligar. O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. |
Não | |
└─ preenchimento_prefixo_ms | número inteiro | Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
Não | |
└─ duração_do_silêncio_ms | número inteiro | Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
Não | |
└─ limiar | número | Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
Não | |
└─ tipo | cadeia (de caracteres) | Tipo de deteção de turnos, apenas server_vad é suportado atualmente. |
Não | |
voz | VoiceIdsShared | Não |
Pedido de Criação de Sessão de Transcrição em Tempo Real
Configuração de objeto de sessão de transcrição em tempo real.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
incluem | matriz | O conjunto de itens a incluir na transcrição. Os itens disponíveis atualmente são: - item.input_audio_transcription.logprobs |
Não | |
formato_de_entrada_de_áudio | enumeração | O formato de entrada de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw .Para pcm16 , o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16 , g711_ulaw , g711_alaw |
Não | |
redução_de_ruído_de_entrada_áudio | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
Não | |
└─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field , far_field |
Não | |
transcrição_de_áudio_de_entrada | objecto | Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
Não | |
└─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) en melhorará a precisão e a latência. |
Não | |
└─ modelo | enumeração | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe , gpt-4o-mini-transcribe e whisper-1 .Valores possíveis: gpt-4o-transcribe , gpt-4o-mini-transcribe , whisper-1 |
Não | |
└─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1 , o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
Não | |
Modalidades | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
Não | ||
detecção de viragem | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm , o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
Não | |
└─ criar_resposta | Booleano | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
└─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad . A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium .Valores possíveis: low , medium , high , auto |
Não | |
└─ resposta_de_interrupção | Booleano | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto ) quando ocorre um evento de início de VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
└─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad . Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
Não | |
└─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad . Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
Não | |
└─ limiar | número | Usado apenas para o modo server_vad . Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
Não | |
└─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad , semantic_vad |
Não |
Sessão de Transcrição em Tempo Real Criar Resposta
Uma nova configuração de sessão de transcrição em tempo real.
Quando uma sessão é criada no servidor via API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
segredo_do_cliente | objecto | Chave efêmera retornada pela API. Presente apenas quando a sessão é criada no servidor via API REST. |
Sim | |
└─ expira_em | número inteiro | Data de expiração do token. Atualmente, todos os tokens expiram após um minuto. |
Não | |
└─ valor | cadeia (de caracteres) | Chave efêmera utilizável em ambientes cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
Não | |
formato_de_entrada_de_áudio | cadeia (de caracteres) | O formato de entrada de áudio. As opções são pcm16 , g711_ulaw ou g711_alaw . |
Não | |
transcrição_de_áudio_de_entrada | objecto | Configuração do modelo de transcrição. |
Não | |
└─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) en melhorará a precisão e a latência. |
Não | |
└─ modelo | enumeração | O modelo a utilizar para a transcrição. Pode ser gpt-4o-transcribe , gpt-4o-mini-transcribe , ou whisper-1 .Valores possíveis: gpt-4o-transcribe , gpt-4o-mini-transcribe , whisper-1 |
Não | |
└─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. |
Não | |
Modalidades | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
Não | ||
detecção de viragem | objecto | Configuração para deteção de turnos. Pode ser configurado para null para desligar. O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. |
Não | |
└─ preenchimento_prefixo_ms | número inteiro | Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
Não | |
└─ duração_do_silêncio_ms | número inteiro | Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
Não | |
└─ limiar | número | Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
Não | |
└─ tipo | cadeia (de caracteres) | Tipo de deteção de turnos, apenas server_vad é suportado atualmente. |
Não |
Raciocínio
Apenas modelos da série O
Opções de configuração para modelos de raciocínio.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
esforço | Esforço de Raciocínio |
Apenas modelos da série O Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low , medium e high . Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
Sim | meio |
resumo | enumeração |
Apenas modelos da série O Um resumo do raciocínio realizado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Um dos concise ou detailed .Valores possíveis: concise , detailed |
Não |
Item de Raciocínio
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
conteúdo | matriz | Fundamentação do conteúdo do texto. |
Sim | |
ID | cadeia (de caracteres) | O identificador exclusivo do conteúdo do raciocínio. |
Sim | |
estado | enumeração | O estado do item. Um de in_progress , completed ou incomplete . É preenchido quando os itens são retornados via API.Valores possíveis: in_progress , completed , incomplete |
Não | |
tipo | enumeração | O tipo do objeto. Sempre reasoning .Valores possíveis: reasoning |
Sim |
Recusa
Uma recusa do modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
recusa | cadeia (de caracteres) | A explicação da recusa a partir do modelo. |
Sim | |
tipo | enumeração | O tipo de recusa. Sempre refusal .Valores possíveis: refusal |
Sim |
resposta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
criado_em | número | Marca de data/hora Unix (em segundos) de quando esta Resposta foi criada. |
Sim | |
erro | ResponseError | Um objeto de erro retornado quando o modelo não consegue gerar uma resposta. |
Sim | |
ID | cadeia (de caracteres) | Identificador exclusivo para esta resposta. |
Sim | |
detalhes incompletos | objecto | Detalhes sobre o motivo pelo qual a resposta está incompleta. |
Sim | |
└─ Justificação | enumeração | A razão pela qual a resposta está incompleta. Valores possíveis: max_output_tokens , content_filter |
Não | |
Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id , as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Sim | |
max_output_tokens (máximo de tokens de saída) | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
Não | |
metadados | Metadados | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Sim | |
modelo | cadeia (de caracteres) | Modelo utilizado para gerar as respostas. | Sim | |
objecto | enumeração | O tipo de objeto deste recurso - sempre definido como response .Valores possíveis: response |
Sim | |
output | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a output ordem dos itens na matriz dependem da resposta do modelo.- Em vez de aceder ao primeiro item da output matriz e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a propriedade output_text onde suportada em SDKs. |
Sim | |
texto de saída | cadeia (de caracteres) | Propriedade restrita ao SDK que contém a saída de texto agregada de todos os output_text itens no output array, caso existam. Suportado nos SDKs Python e JavaScript. |
Não | |
chamadas_de_ferramentas_em_paralelo | Booleano | Se deve permitir que o modelo execute chamadas de ferramenta em paralelo. |
Sim | Verdade |
ID_de_resposta_anterior | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. | Não | |
Fundamentação | Fundamentação |
Apenas modelos da série O Opções de configuração para modelos de raciocínio. |
Não | |
estado | enumeração | O estado da geração de resposta. Um de completed , failed , in_progress , ou incomplete .Valores possíveis: completed , failed , in_progress , incomplete |
Não | |
temperatura | número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p , mas não ambos. |
Sim | 1 |
enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
Não | |
└─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
Não | |
escolha_de_ferramenta | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Sim | |
Ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas incorporadas |
Sim | |
top_p | número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature , mas não ambos. |
Sim | 1 |
truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto : Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto , disabled |
Não | |
utilização | Uso da Resposta | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento de tokens de saída e o total de tokens usados. |
Não | |
utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. . |
Não |
ResponseAudioDeltaEvent
Emitido quando há uma resposta de áudio parcial.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
delta | cadeia (de caracteres) | Uma porção de dados de áudio da resposta codificados em Base64. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.audio.delta .Valores possíveis: response.audio.delta |
Sim |
EventoConcluídoAudioResposta
Emitido quando a resposta de áudio é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | O tipo de evento. Sempre response.audio.done .Valores possíveis: response.audio.done |
Sim |
ResponseAudioTranscriptDeltaEvent
Emitido quando há uma transcrição parcial do áudio.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
delta | cadeia (de caracteres) | A transcrição parcial da resposta de áudio. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.delta .Valores possíveis: response.audio.transcript.delta |
Sim |
EventoTranscriçãoÁudioConcluídoResposta
Emitido quando a transcrição completa do áudio é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.done .Valores possíveis: response.audio.transcript.done |
Sim |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um trecho de código parcial é adicionado pelo interpretador de código.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
delta | cadeia (de caracteres) | O trecho de código parcial adicionado pelo interpretador de código. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.delta .Valores possíveis: response.code_interpreter_call.code.delta |
Sim |
EventoDeConclusãoDoCódigoDeChamadaDoInterpretadorDeCódigosDeResposta
Emitido quando a saída do trecho de código é finalizada pelo interpretador de código.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | cadeia (de caracteres) | A saída final do trecho de código pelo interpretador de código. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.done .Valores possíveis: response.code_interpreter_call.code.done |
Sim |
ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada do interpretador de código é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chamada_interpretador_de_codigo | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.completed .Valores possíveis: response.code_interpreter_call.completed |
Sim |
ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chamada_interpretador_de_codigo | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.in_progress .Valores possíveis: response.code_interpreter_call.in_progress |
Sim |
CódigoDeRespostaInterpreteChamadaEventoDeInterpretação
Emitido quando o interpretador de código está interpretando ativamente o trecho de código.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
chamada_interpretador_de_codigo | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.interpreting .Valores possíveis: response.code_interpreter_call.interpreting |
Sim |
EventoRespostaConcluída
Emitido quando a resposta do modelo está completa.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
resposta | resposta | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.completed .Valores possíveis: response.completed |
Sim |
EventoDeParteDoConteúdoDaRespostaAdicionado
Emitido quando uma nova parte de conteúdo é adicionada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_de_conteúdo | número inteiro | O índice da parte de conteúdo que foi adicionada. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
parte | OutputContent | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.content_part.added .Valores possíveis: response.content_part.added |
Sim |
EventoParteConteúdoRespostaConcluído
Emitido quando uma parte do conteúdo é concluída.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_de_conteúdo | número inteiro | O índice do conteúdo da parte que está concluída. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
parte | OutputContent | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.content_part.done .Valores possíveis: response.content_part.done |
Sim |
EventoRespostaCriada
Um evento que é emitido quando uma resposta é criada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
resposta | resposta | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.created .Valores possíveis: response.created |
Sim |
Erro de Resposta
Um objeto de erro retornado quando o modelo não consegue gerar uma resposta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | ResponseErrorCode | O código de erro para a resposta. |
Sim | |
mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. |
Sim |
CódigoDeErroDeResposta
O código de erro para a resposta.
Propriedade | Valor |
---|---|
Descrição | O código de erro para a resposta. |
Tipo | cadeia (de caracteres) |
Valores | server_error rate_limit_exceeded invalid_prompt vector_store_timeout invalid_image invalid_image_format invalid_base64_image invalid_image_url image_too_large image_too_small image_parse_error image_content_policy_violation invalid_image_mode image_file_too_large unsupported_image_media_type empty_image_file failed_to_download_image image_file_not_found |
Evento de Erro de Resposta
Emitido quando ocorre um erro.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
código | cadeia (de caracteres) | O código de erro. |
Sim | |
mensagem | cadeia (de caracteres) | A mensagem de erro. |
Sim | |
parâmetro | cadeia (de caracteres) | O parâmetro de erro. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre error .Valores possíveis: error |
Sim |
EventoFalhaResposta (ResponseFailedEvent)
Um evento que é emitido quando uma resposta falha.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
resposta | resposta | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.failed .Valores possíveis: response.failed |
Sim |
EventoDePesquisaDeFicheirosRespostaConcluída
Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_item | cadeia (de caracteres) | O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída em que é iniciada a chamada de pesquisa no arquivo. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.file_search_call.completed .Valores possíveis: response.file_search_call.completed |
Sim |
ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de pesquisa de arquivo é iniciada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_item | cadeia (de caracteres) | O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída em que é iniciada a chamada de pesquisa no arquivo. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.file_search_call.in_progress .Valores possíveis: response.file_search_call.in_progress |
Sim |
RespostaFicheiroPesquisaChamadaAProcurarEvento
Emitido quando uma pesquisa de arquivo está sendo pesquisada no momento.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
identificador_do_item | cadeia (de caracteres) | O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.file_search_call.searching .Valores possíveis: response.file_search_call.searching |
Sim |
ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta parcial de argumentos de chamada de função.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
delta | cadeia (de caracteres) | Os argumentos delta de chamada de função que são adicionados. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída ao qual é somado o delta dos argumentos de chamada de função. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.function_call_arguments.delta .Valores possíveis: response.function_call_arguments.delta |
Sim |
EventoDeConcluídoDosArgumentosDaChamadaDeFunçãoResposta
Emitido quando os argumentos de chamada de função são finalizados.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Argumentos | cadeia (de caracteres) | Os argumentos de chamada de função. | Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item. | Sim | |
índice_de_output | número inteiro | O índice do item de saída. | Sim | |
tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Sim |
EventoDeRespostaEmProgresso
Emitido quando a resposta está em andamento.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
resposta | resposta | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.in_progress .Valores possíveis: response.in_progress |
Sim |
EventoRespostaIncompleta
Um evento que é emitido quando uma resposta termina como incompleta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
resposta | resposta | Sim | ||
tipo | enumeração | O tipo de evento. Sempre response.incomplete .Valores possíveis: response.incomplete |
Sim |
listaDeItensDeResposta
Uma lista de itens de resposta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Uma lista de itens usados para gerar essa resposta. | Sim | |
first_id | cadeia (de caracteres) | A ID do primeiro item da lista. | Sim | |
tem_mais | Booleano | Se há mais itens disponíveis. | Sim | |
last_id | cadeia (de caracteres) | A ID do último item da lista. | Sim | |
objecto | enumeração | O tipo de objeto retornado, deve ser list .Valores possíveis: list |
Sim |
Modalidades de resposta
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos são capazes de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview
modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para este componente.
RespostaModalidadesApenas texto
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos são capazes de gerar texto, que é o padrão:
["text"]
Esta API em breve suportará outras modalidades de saída, incluindo áudio e imagens.
Nenhuma propriedade definida para este componente.
EventoAdicionadoItemSaídaResposta
Emitido quando um novo item de saída é adicionado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
item | OutputItem | Sim | ||
índice_de_output | número inteiro | O índice do item de saída que foi adicionado. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.output_item.added .Valores possíveis: response.output_item.added |
Sim |
EventoRespostaSaídaItemConcluído
Emitido quando um item de saída é marcado como concluído.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
item | OutputItem | Sim | ||
índice_de_output | número inteiro | O índice do item de saída que foi marcado como concluído. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.output_item.done .Valores possíveis: response.output_item.done |
Sim |
PropriedadesDeResposta
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id , as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Não | |
max_output_tokens (máximo de tokens de saída) | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
Não | |
ID_de_resposta_anterior | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. | Não | |
Fundamentação | Fundamentação |
Apenas modelos da série O Opções de configuração para modelos de raciocínio. |
Não | |
enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
Não | |
└─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
Não | |
escolha_de_ferramenta | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Não | |
Ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas incorporadas |
Não | |
truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto : Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto , disabled |
Não |
EventoDeltaRecusaResposta
Emitido quando há um texto de recusa parcial.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_de_conteúdo | número inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. |
Sim | |
delta | cadeia (de caracteres) | O texto de recusa que é adicionado. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída ao qual o texto de recusa é adicionado. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.refusal.delta .Valores possíveis: response.refusal.delta |
Sim |
EventoRespostaRecusaConcluída
Emitido quando o texto de recusa é finalizado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_de_conteúdo | número inteiro | O índice da parte do conteúdo onde o texto de recusa é finalizado. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída em que o texto de recusa é finalizado. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída em que o texto de recusa é concluído. |
Sim | |
recusa | cadeia (de caracteres) | O texto de recusa finalizado. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.refusal.done .Valores possíveis: response.refusal.done |
Sim |
eventoDeTransmissaoDeResposta (responseStreamEvent)
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
anotação | Anotação | Sim | ||
índice_de_anotação | número inteiro | O índice da anotação adicionada. |
Sim | |
Argumentos | cadeia (de caracteres) | Os argumentos de chamada de função. | Sim | |
código | cadeia (de caracteres) | O código de erro. |
Sim | |
chamada_interpretador_de_codigo | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
índice_de_conteúdo | número inteiro | O índice da parte do conteúdo em que o texto é finalizado. |
Sim | |
delta | cadeia (de caracteres) | O texto delta que foi adicionado. |
Sim | |
item | OutputItem | O item de saída que foi marcado como concluído. |
Sim | |
identificador_do_item | cadeia (de caracteres) | O ID do item de saída onde o conteúdo de texto foi finalizado. |
Sim | |
mensagem | cadeia (de caracteres) | A mensagem de erro. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída em que o conteúdo do texto é finalizado. |
Sim | |
parâmetro | cadeia (de caracteres) | O parâmetro de erro. |
Sim | |
parte | OutputContent | A parte de conteúdo que é feita. |
Sim | |
recusa | cadeia (de caracteres) | O texto de recusa finalizado. |
Sim | |
resposta | resposta | A resposta que estava incompleta. |
Sim | |
enviar SMS | cadeia (de caracteres) | Conteúdo do texto que foi finalizado. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.output_text.done .Valores possíveis: response.output_text.done |
Sim |
Evento Delta de Anotação de Texto de Resposta
Emitido quando uma anotação de texto é adicionada.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
anotação | Anotação | Sim | ||
índice_de_anotação | número inteiro | O índice da anotação adicionada. |
Sim | |
índice_de_conteúdo | número inteiro | O índice da parte de conteúdo à qual a anotação de texto foi adicionada. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída ao qual a anotação de texto foi adicionada. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída ao qual a anotação de texto foi adicionada. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.output_text.annotation.added .Valores possíveis: response.output_text.annotation.added |
Sim |
ResponseTextDeltaEvent
Emitido quando há um delta de texto adicional.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_de_conteúdo | número inteiro | O índice da parte de conteúdo à qual foi adicionado o delta de texto. |
Sim | |
delta | cadeia (de caracteres) | O texto delta que foi adicionado. |
Sim | |
identificador_do_item | cadeia (de caracteres) | A ID do item de saída ao qual o delta de texto foi adicionado. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.output_text.delta .Valores possíveis: response.output_text.delta |
Sim |
ResponseTextDoneEvent
Emitido quando o conteúdo do texto é finalizado.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_de_conteúdo | número inteiro | O índice da parte do conteúdo em que o texto é finalizado. |
Sim | |
identificador_do_item | cadeia (de caracteres) | O ID do item de saída onde o conteúdo de texto foi finalizado. |
Sim | |
índice_de_output | número inteiro | O índice do item de saída em que o conteúdo do texto é finalizado. |
Sim | |
enviar SMS | cadeia (de caracteres) | Conteúdo do texto que foi finalizado. |
Sim | |
tipo | enumeração | O tipo de evento. Sempre response.output_text.done .Valores possíveis: response.output_text.done |
Sim |
Uso de Resposta
Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento de tokens de saída e o total de tokens usados.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tokens_de_entrada | número inteiro | O número de tokens de entrada. | Sim | |
tokens de saída | número inteiro | O número de tokens de saída. | Sim | |
detalhes_dos_tokens_de_saida | objecto | Um detalhamento detalhado dos tokens de saída. | Sim | |
└─ tokens de raciocínio | número inteiro | O número de tokens de raciocínio. | Não | |
total de tokens | número inteiro | O número total de tokens usados. | Sim |
Captura de ecrã
Uma ação de captura de tela.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot .Valores possíveis: screenshot |
Sim |
Deslocar
Uma ação de rolagem.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
scroll_x | número inteiro | A distância de rolagem horizontal. |
Sim | |
scroll_y | número inteiro | A distância de rolagem vertical. |
Sim | |
tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll .Valores possíveis: scroll |
Sim | |
x | número inteiro | A coordenada x onde ocorreu a rolagem. |
Sim | |
y | número inteiro | A coordenada y onde ocorreu a rolagem. |
Sim |
PararConfiguração
Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada.
Este componente pode ser um dos seguintes:
ConfiguraçãoDoFormatoDeRespostaDeTexto
Um objeto que especifica o formato que o modelo deve produzir.
A configuração { "type": "json_schema" }
habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.
O formato padrão é { "type": "text" }
sem opções adicionais.
Não recomendado para gpt-4o e modelos mais recentes:
Configurar para { "type": "json_object" }
ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema
é preferível para modelos que o suportam.
Este componente pode ser um dos seguintes:
TextResponseFormatJsonSchema
Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
descrição | cadeia (de caracteres) | Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato. |
Não | |
nome | cadeia (de caracteres) | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
Não | |
esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | Sim | |
rigoroso | Booleano | Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
Não | Falso |
tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema .Valores possíveis: json_schema |
Sim |
Ferramenta
Este componente pode ser um dos seguintes:
FunçãoDeEscolhaDeFerramenta
Use esta opção para forçar o modelo a chamar uma função específica.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
nome | cadeia (de caracteres) | O nome da função a ser chamada. | Sim | |
tipo | enumeração | Para chamada de função, o tipo é sempre function .Valores possíveis: function |
Sim |
Opções de Escolha de Ferramentas
Controla qual (se houver) ferramenta é chamada pelo modelo.
none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto
significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required
significa que o modelo deve chamar uma ou mais ferramentas.
Propriedade | Valor |
---|---|
Descrição | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
Tipo | cadeia (de caracteres) |
Valores | none auto required |
TiposDeEscolhaDeFerramentas
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são: - file_search - computer_use_preview Valores possíveis: file_search , computer_use_preview |
Sim |
Tipo
Uma ação para digitar texto.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
enviar SMS | cadeia (de caracteres) | O texto a ser digitado. |
Sim | |
tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type .Valores possíveis: type |
Sim |
PedidoDeAtualizaçãoDeAtributosDeFicheiroDeArmazenamentoVetorial
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
atributos | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números. |
Sim |
Citação de URL
Uma citação para um recurso da Web usado para gerar uma resposta de modelo.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
índice_final | número inteiro | O índice do último caractere da citação de URL na mensagem. |
Sim | |
start_index | número inteiro | O índice do primeiro caractere da citação de URL na mensagem. |
Sim | |
título | cadeia (de caracteres) | O título do recurso Web. |
Sim | |
tipo | enumeração | O tipo de citação de URL. Sempre url_citation .Valores possíveis: url_citation |
Sim | |
URL | cadeia (de caracteres) | O URL do recurso Web. |
Sim |
VectorStoreFileAttributes
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números.
Nenhuma propriedade definida para este componente.
VectorStoreFileContentResponse
Representa o conteúdo analisado de um arquivo de armazenamento vetorial.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | Conteúdo analisado do arquivo. | Sim | |
tem_mais | Booleano | Indica se há mais páginas de conteúdo para buscar. | Sim | |
próxima_página | cadeia (de caracteres) | O token para a próxima página, se houver. | Sim | |
objecto | enumeração | O tipo de objeto, que é sempre vector_store.file_content.page Valores possíveis: vector_store.file_content.page |
Sim |
VectorStoreSearchRequest
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
filtros | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | Não | |
máximo_número_de_resultados | número inteiro | O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. | Não | 10 |
consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Sim | |
opções_de_classificação | objecto | Opções de classificação para pesquisa. | Não | |
└─ classificador | enumeração | Valores possíveis: auto , default-2024-11-15 |
Não | |
└─ limiar_de_pontuação | número | Não | 0 | |
reformular_consulta | Booleano | Se a consulta de linguagem natural deve ser reescrita para pesquisa vetorial. | Não | Falso |
Objeto de Conteúdo do Resultado de Pesquisa da Loja de Vetores
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
enviar SMS | cadeia (de caracteres) | O conteúdo de texto retornado da pesquisa. | Sim | |
tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Sim |
VectorStoreSearchResultItem
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
atributos | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números. |
Sim | |
conteúdo | matriz | Partes de conteúdo do arquivo. | Sim | |
identificação_de_ficheiro | cadeia (de caracteres) | A ID do arquivo de armazenamento vetorial. | Sim | |
nome do ficheiro | cadeia (de caracteres) | O nome do arquivo de armazenamento vetorial. | Sim | |
classificação | número | A pontuação de similaridade do resultado. | Sim |
PáginaDeResultadosDePesquisaDaLojaDeVetores
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | matriz | A lista de itens de resultados de pesquisa. | Sim | |
tem_mais | Booleano | Indica se há mais resultados para buscar. | Sim | |
próxima_página | cadeia (de caracteres) | O token para a próxima página, se houver. | Sim | |
objecto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.page Valores possíveis: vector_store.search_results.page |
Sim | |
search_query | matriz | Sim |
Identificações de Voz Partilhadas
Nenhuma propriedade definida para este componente.
Aguarde
Uma ação de espera.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, esta propriedade é sempre definida como wait .Valores possíveis: wait |
Sim |
Esforço para Raciocinar
Apenas modelos da série O
Restringe o esforço no raciocínio para modelos de raciocínio.
Atualmente, os valores suportados são low
, medium
e high
. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Propriedade | Valor |
---|---|
Descrição |
Apenas modelos da série O Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low , medium e high . Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
Tipo | cadeia (de caracteres) |
Predefinição | meio |
Valores | low medium high |
eventoErro
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | erro | Sim | ||
evento | cadeia (de caracteres) | Sim |
Enum do evento: ErrorEventEnum
Valor | Descrição |
---|---|
erro |
doneEvento
Ocorre quando um fluxo termina.
Nome | Tipo | Descrição | Obrigatório | Predefinido |
---|---|---|---|---|
dados | cadeia (de caracteres) | Sim | ||
evento | cadeia (de caracteres) | Sim |
evento Enum: DoneEventEnum
Valor | Descrição |
---|---|
concluído |
Enum de dados: DoneEventDataEnum
Valor | Descrição |
---|---|
[CONCLUÍDO] |
Próximos passos
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.