Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
A ver atualmente:Versão - portal Foundry (clássica)Mudar para a versão do novo portal da Foundry
Nota
Os links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação clássica do Foundry que está a ver agora.
Este artigo fornece detalhes sobre os endpoints da API REST de inferência para Azure OpenAI.
Especificações da API
A gestão e interação com modelos e recursos Azure OpenAI está dividida em três superfícies principais de API:
- Plano de controlo
- Plano de dados - autoria
- Plano de dados - inferência
Cada superfície/especificação API encapsula um conjunto diferente de capacidades Azure OpenAI. Cada API tem o seu próprio conjunto único de pré-visualização e versões de APIs estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.
Importante
Agora existe uma nova API de inferência de pré-visualização. Saiba mais no nosso guia do ciclo de vida da API.
| API | Última versão de pré-visualização | Última versão da GA | Especificações | Descrição |
|---|---|---|---|---|
| Plano de controlo | 2025-07-01-preview |
2025-06-01 |
Ficheiros de especificação | A API do plano de controlo é usada para operações como criação de recursos, implementação de modelos e outras tarefas de gestão de recursos de nível superior. O plano de controlo também regula o que é possível fazer com capacidades como Azure Resource Manager, Bicep, Terraform e Azure CLI. |
| Plano de dados | v1 preview |
v1 |
Ficheiros de especificação | A API do plano de dados controla as operações de inferência e autoria. |
Autenticação
O Azure OpenAI fornece dois métodos de autenticação. Pode usar API Keys ou Microsoft Entra ID.
Autenticação de Chave API: Para este tipo de autenticação, todos os pedidos de API devem incluir a Chave API no
api-keycabeçalho HTTP. O Quickstart fornece orientações sobre como fazer chamadas com este tipo de autenticação.Autenticação Microsoft Entra ID: Pode autenticar uma chamada API usando um token Microsoft Entra. Os tokens de autenticação são incluídos num pedido como
Authorizationcabeçalho. O token fornecido deve ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN. Pode ler o nosso guia prático sobre autenticação com o Microsoft Entra ID.
Versionamento da API REST
As APIs dos serviços são versionadas usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de datas YYYY-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a 2025-04-01-preview versão pré-visualizada da especificação de inferência do plano de dados Azure OpenAI.
Se procura documentação sobre a última versão da API GA, consulte a API de inferência de planos de dados GA mais recente
Completações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| best_of | número inteiro | Gera best_of completações do lado do servidor e devolve o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver ââ'�“ best_of devem ser maiores que n.Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
Não | 1 |
| Echo | Booleano | Repita o prompt além da conclusão | Não | Falso |
| frequency_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. | Não | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. Por exemplo, pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhuma |
| Logprobs | número inteiro | Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolve uma lista dos 5 tokens mais prováveis. A API devolve sempre o do logprob token amostrado, pelo que pode haver até logprobs+1 até elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhuma |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do teu prompt plus max_tokens não pode exceder o comprimento do contexto do modelo. |
Não | 16 |
| n | número inteiro | Quantas conclusãos gerar para cada prompt. Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
Não | 1 |
| presence_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. | Não | 0 |
| avisar | String ou array | O prompt para gerar completações para, codificado como uma string, array de strings, array de tokens ou array de tokens. Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treino, por isso, se um prompt não for especificado, o modelo gera-se como se fosse do início de um novo documento. |
Sim | |
| Semente | número inteiro | Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
Não | |
| Pára | String ou array | Até quatro sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens. | Não | |
| fluxo | Booleano | Se deves reverter o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem.
Exemplo de código em Python. |
Não | Falso |
| Sufixo | cadeia (de caracteres) | O sufixo que surge após a conclusão do texto inserido. Este parâmetro é suportado apenas para gpt-3.5-turbo-instruct. |
Não | Nenhuma |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | createCompletionResponse |
Código de Estado: padrão
Descrição: Serviço indisponível
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | errorResposta |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenha uma representação vetorial de uma dada entrada que possa ser facilmente consumida por modelos e algoritmos de aprendizagem automática.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | O ID de implementação do modelo que foi implementado. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Dimensões | número inteiro | O número de dimensões que os embeddings de saída resultantes devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
Não | |
| encoding_format | cadeia (de caracteres) | O formato para devolver os embeddings. Pode ser qualquer um ou floatbase64outro. Por defeito, é float. |
Não | |
| dados introduzidos | String ou array | Input texto para embed, codificado como uma string ou array de tokens. Para incorporar múltiplas entradas num único pedido, passe um array de strings ou array de tokens. A entrada não deve exceder os tokens máximos de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma string vazia, e qualquer array deve ter 2.048 dimensões ou menos. |
Sim | |
| input_type | cadeia (de caracteres) | Tipo de entrada de pesquisa de embedding a utilizar | Não | |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | objecto |
Exemplos
Exemplo
Devolva os embeddings para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de Estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusão de chat - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Cria uma conclusão para a mensagem do chat
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Áudio | objecto | Parâmetros para saída de áudio. É obrigatório quando a saída de áudio é solicitada com modalities: ["audio"]. |
Não | |
| └─ Formato | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16. Valores possíveis: wav, mp3, flac, opus, pcm16 |
Não | |
| └─ voz | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Não | |
| data_sources | matriz | As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam. Esta especificação extra só é compatível com o Azure OpenAI. |
Não | |
| frequency_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
Não | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Descontinuado em favor de tool_choice.Controla qual (se existe) função é chamada pelo modelo. none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.none é o padrão quando não há funções presentes.
auto é o padrão se as funções estiverem presentes. |
Não | |
| Funções | matriz | Descontinuado em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não | |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia os tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. |
Não | Nenhuma |
| Logprobs | Booleano | Se deve devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, devolve as probabilidades logarítmicas de cada token de saída devolvido no content de message. |
Não | Falso |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
Não | |
| Mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código em Python. | Sim | |
| metadados | objecto | Etiquetas e valores definidos pelo programador usados para filtrar completações no painel de completações armazenadas. | Não | |
| Modalidades | ChatCompletionModalities | Tipos de saída que gostaria que o modelo gerasse para este pedido. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:["text", "audio"] |
Não | |
| n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. |
Não | 1 |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| predição | Conteúdo de Previsão | Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isto é mais comum quando se está a regenerar um ficheiro com apenas pequenas alterações na maior parte do conteúdo. | Não | |
| presence_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
Não | 0 |
| reasoning_effort | enumeração |
Apenas modelos O1 Limita o esforço de raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.Valores possíveis: low, medium, high |
Não | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes do que gpt-3.5-turbo-1106.A definição para { "type": "json_schema", "json_schema": {...} } ativa ativa os Structured Outputs, que garantem que o modelo corresponde ao seu esquema JSON fornecido.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Semente | número inteiro | Esta funcionalidade está em Beta. Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
Não | |
| Pára | String ou array | Até 4 sequências em que a API deixa de gerar mais tokens. |
Não | |
| armazenar | Booleano | Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso nos nossos produtos de destilação ou avaliação de modelos. | Não | |
| fluxo | Booleano | Se definido, são enviados deltas parciais da mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem.
Exemplo de código em Python. |
Não | Falso |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isto quando defines stream: true. |
Não | Nenhuma |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se houver ferramentas presentes. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isto para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. São suportadas um máximo de 128 funções. |
Não | |
| top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis a serem retornados em cada posição do token, cada um com uma probabilidade logarítmica associada.
logprobs deve ser definido para true se este parâmetro for utilizado. |
Não | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
| user_security_context | userSecurityContext | O contexto de segurança do utilizador contém vários parâmetros que descrevem a própria aplicação de IA e o utilizador final que interage com a aplicação de IA. Estes campos ajudam as suas equipas de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger as suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando o Microsoft Defender for Cloud. | Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | objecto |
Código de Estado: padrão
Descrição: Serviço indisponível
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | errorResposta |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão baseada nos dados do Azure Search e na identidade gerida atribuída ao sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão baseada em dados vetoriais de imagem do Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão baseada nos dados do vetorial de pesquisa do Azure, na mensagem do assistente anterior e na identidade gerida atribuída pelo utilizador.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para a base de dados Azure Cosmos fornecida.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para a base de dados Mongo fornecida.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcreve o áudio para a língua de entrada.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: multipart/form-data
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| modelo | cadeia (de caracteres) | ID do modelo a usar. As opções são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. |
Sim | |
| ficheiro | cadeia (de caracteres) | O objeto do ficheiro áudio para transcrever. | Sim | |
| linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. | Não | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. | Não | |
| response_format | audioResponseFormat | Define o formato da saída. | Não | |
| Temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | Não | 0 |
| timestamp_granularities[] | matriz | As granularidades do carimbo temporal para preencher esta transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo temporal. Uma ou ambas estas opções são suportadas: word, ou segment. Nota: Não existe latência adicional para carimbos temporais de segmentos, mas gerar carimbos temporais de palavra implica latência adicional. |
Não | ['segmento'] |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | objecto | |
| texto/simples | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era um dos text, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcreve e traduz áudio de entrada para texto em inglês.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: multipart/form-data
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O ficheiro de áudio para traduzir. | Sim | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O enunciado deve estar em inglês. | Não | |
| response_format | audioResponseFormat | Define o formato da saída. | Não | |
| Temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | Não | 0 |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | objecto | |
| texto/simples | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Gera áudio a partir do texto de entrada.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: multipart/form-data
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados introduzidos | cadeia (de caracteres) | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Sim | |
| response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
Não | |
| Velocidade | Número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0.
1.0 é o padrão. |
Não | 1.0 |
| Voz | enumeração | A voz a usar para síntese de voz. Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Sim |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/octet-stream | cadeia (de caracteres) |
Exemplos
Exemplo
Sintetiza áudio a partir do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de Estado: 200
{
"body": "101010101"
}
Gerações de imagens - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Gera um lote de imagens a partir de uma legenda de texto numa dada implementação de modelo de geração de imagens
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| em segundo plano | imageContexto | Permite definir transparência para o fundo das imagens geradas. Este parâmetro é apenas suportado para modelos da série gpt-image-1. | Não | Auto |
| n | número inteiro | O número de imagens a gerar. Para dall-e-3, apenas n=1 é suportado. | Não | 1 |
| output_compression | número inteiro | O nível de compressão (0-100%) para as imagens geradas. Este parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. | Não | 100 |
| output_format | imagesOutputFormat | O formato de ficheiro no qual as imagens geradas são devolvidas. Apenas suportado para modelos da série gpt-image-1. | Não | PNG |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 | Sim | |
| partial_images | número inteiro | O número de imagens parciais a gerar. Este parâmetro é usado para respostas em streaming que devolvem imagens parciais. O valor deve estar entre 0 e 3. Quando definido para 0, a resposta será uma única imagem enviada num evento de streaming. Note que a imagem final pode ser enviada antes de o número total de imagens parciais ser gerado, se a imagem completa for gerada mais rapidamente. | 0 | |
| fluxo | Booleano | Edita a imagem em modo streaming. | Não | false |
| Qualidade | Qualidade de imagem | A qualidade da imagem que será gerada. | Não | Auto |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são devolvidas. Este parâmetro não é suportado para gpt-image-1modelos da série -que retornam sempre imagens codificadas base64.Valores possíveis: url, b64_json. |
Não | URL |
| Tamanho | imageSize | O tamanho das imagens geradas. | Não | Auto |
| Estilo | imageStyle | O estilo das imagens geradas. Só é suportado para DALL-E-3. | Não | vívido |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
Respostas
Código de Estado: 200
Descrição: Ok
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | gerarImagensResposta |
Código de Estado: padrão
Descrição: Ocorreu um erro.
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | dalleErroResposta |
Exemplos
Exemplo
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Gerações de imagens - Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita uma imagem a partir de uma legenda de texto numa dada implementação de modelo gpt-image-1
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Deployment-id | caminho | Sim | cadeia (de caracteres) | |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: multipart/form-data
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| imagem | String ou array | A(s) imagem(s) a editar. Deve ser um ficheiro de imagem suportado ou um array de imagens. Cada imagem deve ser um ficheiro png ou jpg com menos de 50MB. | Sim | |
| input_fidelity | cadeia (de caracteres) | Controla quanto esforço o modelo irá fazer para corresponder ao estilo e às características, especialmente as características faciais, das imagens de entrada. Este parâmetro é apenas suportado para modelos da série gpt-image-1. Suportes high e low. |
Não |
low. |
| máscara | cadeia (de caracteres) | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se forem fornecidas várias imagens, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. | Não | |
| n | número inteiro | O número de imagens a gerar. Deve estar entre 1 e 10. | Não | 1 |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. | Sim | |
| Qualidade | Qualidade de imagem | A qualidade da imagem que será gerada. | Não | Auto |
| partial_images | O número de imagens parciais a gerar. Este parâmetro é usado para respostas em streaming que devolvem imagens parciais. O valor deve estar entre 0 e 3. Quando definido para 0, a resposta será uma única imagem enviada num evento de streaming. Note que a imagem final pode ser enviada antes de o número total de imagens parciais ser gerado, se a imagem completa for gerada mais rapidamente. | |||
| fluxo | Booleano | Edita a imagem em modo streaming. | Não | false |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são devolvidas. | Não | URL |
| Tamanho | imageSize | O tamanho das imagens geradas. | Não | Auto |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
Respostas
Código de Estado: 200
Descrição: Ok
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | gerarImagensResposta |
Código de Estado: padrão
Descrição: Ocorreu um erro.
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | dalleErroResposta |
Lista - Assistentes
Nota
A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Devolve uma lista de assistentes.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listaAssistentesResposta |
Exemplos
Exemplo
Devolve uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar - Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Cria um assistente com um modelo e instruções.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
| Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente utiliza. O comprimento máximo é de 256.000 caracteres. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | Sim | ||
| Nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
Não | [] |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | assistenteObjeto |
Exemplos
Exemplo
Cria um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de Estado: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Get - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Vai buscar um assistente.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Sim | cadeia (de caracteres) | A identificação do assistente a recuperar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | assistenteObjeto |
Exemplos
Exemplo
Vai buscar um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica um assistente.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Sim | cadeia (de caracteres) | O ID do assistente a modificar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
| Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente utiliza. O comprimento máximo é de 32768 caracteres. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | Não | ||
| Nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Sobrepõe a lista de IDs de ficheiros disponibilizados à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | Sobrepõe o armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
Não | [] |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | assistenteObjeto |
Exemplos
Exemplo
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de Estado: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Eliminar - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Apaga um assistente.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Sim | cadeia (de caracteres) | O ID do assistente para apagar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | deleteAssistenteResposta |
Exemplos
Exemplo
Apaga um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar - Thread
Nota
A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Cria um tópico.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Mensagens | matriz | Uma lista de mensagens para começar o tópico. | Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| tool_resources | objecto | Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este fio. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | threadObject |
Exemplos
Exemplo
Cria um fio de conversa.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Get - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera um fio.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do tópico para recuperar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | threadObject |
Exemplos
Exemplo
Recupera um fio.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica um tópico.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do tópico a modificar. Apenas os metadata que podem ser modificados. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| tool_resources | objecto | Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiro disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | threadObject |
Exemplos
Exemplo
Modifica um tópico.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Eliminar - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Apaga um tópico.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do tópico para apagar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | deleteThreadResponse |
Exemplos
Exemplo
Apaga um tópico.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista - Mensagens
Nota
A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Devolve uma lista de mensagens para um determinado tópico.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID dos threads a que pertencem as mensagens. |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| run_id | consulta | Não | cadeia (de caracteres) | Filtra as mensagens pelo ID da corrida que as gerou. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listaMensagensResposta |
Exemplos
Exemplo
Mensagens de Lista
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Cria uma mensagem.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID dos threads para criar uma mensagem. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Anexos | matriz | Uma lista de ficheiros anexados à mensagem e as ferramentas a que devem ser adicionados. | Não | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Sim | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| função | cadeia (de caracteres) | O papel da entidade que está a criar a mensagem. Os valores permitidos incluem: - user: Indica que a mensagem foi enviada por um utilizador real e deve ser usada na maioria dos casos para representar mensagens geradas pelo utilizador.- assistant: Indica que a mensagem é gerada pelo assistente. Use este valor para inserir mensagens do assistente na conversa. |
Sim |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | messageObject |
Exemplos
Exemplo
Cria uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de Estado: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Get - Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recupera uma mensagem.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID dos threads a que esta mensagem pertence. |
| message_id | caminho | Sim | cadeia (de caracteres) | O ID da mensagem a recuperar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | messageObject |
Exemplos
Exemplo
Recupera uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica uma mensagem.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID da thread a que esta mensagem pertence. |
| message_id | caminho | Sim | cadeia (de caracteres) | O ID da mensagem a modificar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | messageObject |
Exemplos
Exemplo
Modificar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Estado: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Create - Thread And Run
Nota
A API dos Assistentes está obsoleta e será retirada a 26 de agosto de 2026. Utilize o serviço Microsoft Foundry Agents, disponível de forma geral. Siga o guia de migração para atualizar as suas cargas de trabalho. Saiba mais.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Cria um tópico e executa-o num único pedido.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | O ID do assistente a usar para executar esta execução. | Sim | |
| Instruções | cadeia (de caracteres) | Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. | Não | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | O ID dos modelos a serem usados para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | Booleano | Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem. |
Não | |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isto quando defines stream: true. |
Não | Nenhuma |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| conversa | createThreadRequest | Não | ||
| tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta. |
Não | |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O ID do armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. | Não | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
| truncation_strategy | truncationObject | Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. | Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runObject |
Exemplos
Exemplo
Cria um tópico e executa-o num único pedido.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de Estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista - Corridas
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Devolve uma lista de execuções pertencentes a uma thread.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do thread a que pertence a execução. |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listRunsResponse |
Exemplos
Exemplo
Devolve uma lista de execuções pertencentes a uma thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar - Correr
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Cria uma corrida.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do tópico a executar. |
| incluir[] | consulta | Não | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content obter o conteúdo dos resultados de pesquisa do ficheiro. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| additional_instructions | cadeia (de caracteres) | Acrescenta instruções adicionais no final das instruções para a corrida. Isto é útil para modificar o comportamento a cada execução sem sobrepor outras instruções. | Não | |
| additional_messages | matriz | Adiciona mensagens adicionais ao tópico antes de criar a execução. | Não | |
| assistant_id | cadeia (de caracteres) | O ID do assistente a usar para executar esta execução. | Sim | |
| Instruções | cadeia (de caracteres) | Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. | Não | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | O ID do Modelo a ser usado para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | Booleano | Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta. |
Não | |
| Ferramentas | matriz | Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. | Não | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
| truncation_strategy | truncationObject | Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. | Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runObject |
Exemplos
Exemplo
Cria uma corrida.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de Estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Foge - Corre
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera uma corrida.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID dos tópicos que foram executados. |
| run_id | caminho | Sim | cadeia (de caracteres) | O ID da corrida para recuperar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runObject |
Exemplos
Exemplo
Tem uma corrida.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica uma corrida.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID dos tópicos que foram executados. |
| run_id | caminho | Sim | cadeia (de caracteres) | O ID da corrida a modificar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runObject |
Exemplos
Exemplo
Modifica uma corrida.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de Estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Submeter - Saídas de Ferramentas a Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, este endpoint pode ser usado para submeter as saídas das chamadas de ferramenta depois de todas estarem concluídas. Todos os resultados devem ser submetidos num único pedido.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID dos threads a que esta execução pertence. |
| run_id | caminho | Sim | cadeia (de caracteres) | O ID da execução que requer a submissão da saída da ferramenta. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| fluxo | Booleano | Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem. |
Não | |
| tool_outputs | matriz | Uma lista das ferramentas para as quais os resultados estão a ser submetidos. | Sim |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runObject |
Exemplos
Exemplo
Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, este endpoint pode ser usado para submeter as saídas das chamadas de ferramenta depois de todas estarem concluídas. Todos os resultados devem ser submetidos num único pedido.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar - Correr
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela uma corrida que é in_progress.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do thread a que esta execução pertence. |
| run_id | caminho | Sim | cadeia (de caracteres) | O ID da corrida para cancelar. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runObject |
Exemplos
Exemplo
Cancela uma corrida que é in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista - Run Steps
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Devolve uma lista de passos de execução pertencentes a uma execução.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do thread a que pertencem os passos de execução e execução. |
| run_id | caminho | Sim | cadeia (de caracteres) | O ID da corrida a que pertencem os passos de execução. |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| versão API | consulta | Sim | cadeia (de caracteres) | |
| incluir[] | consulta | Não | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content obter o conteúdo dos resultados de pesquisa do ficheiro. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listaCorrerPassosResposta |
Exemplos
Exemplo
Devolve uma lista de passos de execução pertencentes a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Passo de Correr - Correr
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera um passo de corrida.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Sim | cadeia (de caracteres) | O ID do thread ao qual pertence o passo run e run. |
| run_id | caminho | Sim | cadeia (de caracteres) | O ID da execução à qual pertence o passo de execução. |
| step_id | caminho | Sim | cadeia (de caracteres) | O ID do passo de corrida a recuperar. |
| incluir[] | consulta | Não | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content obter o conteúdo dos resultados de pesquisa do ficheiro. |
| versão API | consulta | Sim | cadeia (de caracteres) |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | runStepObject |
Exemplos
Exemplo
Recupera um passo de corrida.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista - Lojas Vetoriais
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Devolve uma lista de armazenamentos vetoriais.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listVectorStoresResponse |
Exemplos
Exemplo
Devolve uma lista de armazenamentos vetoriais.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar - Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Cria um armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Só se aplica se file_ids estiver não vazio. |
Não | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para uma loja vetorial. | Não | |
| file_ids | matriz | Uma lista de IDs de ficheiros que o armazenamento vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| Nome | cadeia (de caracteres) | O nome da loja vetorial. | Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreObject |
Exemplos
Exemplo
Cria um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obter - Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera um armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial a recuperar. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreObject |
Exemplos
Exemplo
Recupera um armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar - Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica um armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial a modificar. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração para uma loja vetorial. | Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| Nome | cadeia (de caracteres) | O nome da loja vetorial. | Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreObject |
Exemplos
Exemplo
Modifica um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de Estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Delete - Armazenamento Vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Apaga um armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial para apagar. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | deleteVectorStoreResponse |
Exemplos
Exemplo
Apaga um armazenamento vetorial.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista - Ficheiros de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Devolve uma lista de ficheiros de armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial a que pertencem os ficheiros. |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| filtro | consulta | Não | cadeia (de caracteres) Valores possíveis: in_progress, completed, failed, cancelled |
Filtrar por estado do ficheiro. Uma de in_progress, completed, failed, cancelled. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listaVectorArmazenarFicheirosResposta |
Exemplos
Exemplo
Devolve uma lista de ficheiros de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - Ficheiro de Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crie um ficheiro de armazenamento vetorial anexando um ficheiro a um armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial para a qual criar um ficheiro. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. |
Não | |
| file_id | cadeia (de caracteres) | Um ID de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. |
Sim |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreFileObject |
Exemplos
Exemplo
Crie um ficheiro de armazenamento vetorial anexando um ficheiro a um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de Estado: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Get - Ficheiro de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera um ficheiro de armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial a que o ficheiro pertence. |
| file_id | caminho | Sim | cadeia (de caracteres) | O ID do ficheiro que está a ser recuperado. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreFileObject |
Exemplos
Exemplo
Recupera um ficheiro de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Eliminar - Ficheiro de Armazenamento Vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Apagar um ficheiro de armazenamento vetorial. Isto remove o ficheiro da loja vetorial, mas o ficheiro em si não será eliminado. Para eliminar o ficheiro, use o endpoint delete file.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial a que o ficheiro pertence. |
| file_id | caminho | Sim | cadeia (de caracteres) | O ID do ficheiro para apagar. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | deleteVectorStoreFileResponse |
Exemplos
Exemplo
Apagar um ficheiro de armazenamento vetorial. Isto remove o ficheiro da loja vetorial, mas o ficheiro em si não será eliminado. Para eliminar o ficheiro, use o endpoint delete file.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Atualizar atributos num ficheiro de armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID do armazenamento vetorial a que o ficheiro pertence. |
| file_id | caminho | Sim | cadeia (de caracteres) | O ID do ficheiro para atualizar atributos. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Atributos | VectorStoreFileAttributes | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números. |
Sim |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreFileObject |
Recuperar o conteúdo do ficheiro de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupere o conteúdo analisado de um ficheiro de armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID do armazenamento vetorial. |
| file_id | caminho | Sim | cadeia (de caracteres) | O ID do ficheiro dentro da loja vetorial. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | VectorStoreFileContentResponse |
Armazenamento vetorial de pesquisa
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Pesquise numa loja vetorial por blocos relevantes com base num filtro de consulta e atributos de ficheiro.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial para pesquisar. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Filtros | Filtro de Comparação ou Filtro Composto | Um filtro a aplicar com base nos atributos do ficheiro. | Não | |
| max_num_results | número inteiro | O número máximo de resultados a devolver. Este número deve estar entre 1 e 50, inclusive. | Não | 10 |
| consulta | String ou array | Uma cadeia de consulta para uma pesquisa | Sim | |
| ranking_options | objecto | Opções de classificação para pesquisa. | Não | |
| └─ Ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
Não | |
| └─ score_threshold | Número | Não | 0 | |
| rewrite_query | Booleano | Se deve reescrever a consulta em linguagem natural para pesquisa vetorial. | Não | Falso |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | VectorStoreSearchResultsPágina |
Criar - Lote de Ficheiro de Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Cria um lote de ficheiro de armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial para a qual criar um File Batch. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. |
Não | |
| file_ids | matriz | Uma lista de IDs de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. |
Sim |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreFileBatchObject |
Exemplos
Exemplo
Cria um lote de ficheiro de armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de Estado: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get - Lote de ficheiros de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera um lote de ficheiro de armazenamento vetorial.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID do armazenamento vetorial a que pertence o lote de ficheiros. |
| batch_id | caminho | Sim | cadeia (de caracteres) | O ID do lote de ficheiros que está a ser recuperado. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreFileBatchObject |
Exemplos
Exemplo
Recupera um lote de ficheiro de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar - Lote de ficheiros de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancela um lote de ficheiros de armazenamento vetorial. Isto tenta cancelar o processamento dos ficheiros neste lote o mais rapidamente possível.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID do armazenamento vetorial a que pertence o lote de ficheiros. |
| batch_id | caminho | Sim | cadeia (de caracteres) | O ID do lote de ficheiros para cancelar. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | vectorStoreFileBatchObject |
Exemplos
Exemplo
Cancela um lote de ficheiros de armazenamento vetorial. Isto tenta cancelar o processamento dos ficheiros neste lote o mais rapidamente possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista - Ficheiros Batch de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Devolve uma lista de ficheiros de armazenamento vetorial em lote.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Sim | cadeia (de caracteres) | O ID da loja vetorial a que pertencem os ficheiros. |
| batch_id | caminho | Sim | cadeia (de caracteres) | O ID do lote de ficheiros a que pertencem os ficheiros. |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordena pelo created_at carimbo temporal dos objetos.
asc para ordem ascendente e desc para ordem descendente. |
| depois | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, terminando em obj_foo, a sua chamada seguinte pode incluir depois=obj_foo para obter a página seguinte da lista. |
| antes | consulta | Não | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se fizer um pedido de lista e receber 100 objetos, começando por obj_foo, a sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| filtro | consulta | Não | cadeia (de caracteres) Valores possíveis: in_progress, completed, failed, cancelled |
Filtrar por estado do ficheiro. Uma de in_progress, completed, failed, cancelled. |
| versão API | consulta | Sim | cadeia (de caracteres) | Versão API |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | listaVectorArmazenarFicheirosResposta |
Exemplos
Exemplo
Devolve uma lista de ficheiros de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respostas: Código de Estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crie um token de API efémero para utilização em aplicações do lado do cliente com a API em tempo real. Pode ser configurado com os mesmos parâmetros de sessão do session.update evento cliente.
Responde com um objeto de sessão, além de uma client_secret chave que contém um token efémero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
Não | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada. |
Não | |
| └─ Tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.Valores possíveis: near_field, far_field |
Não | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada, por defeito desligado e pode ser definido para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição corre de forma assíncrona através do endpoint de Transcrições e deve ser tratada como orientação do conteúdo áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição. |
Não | |
| └─ Linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
Não | |
| └─ modelo | cadeia (de caracteres) | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
Não | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia". |
Não | |
| Instruções | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) antecediam as chamadas de modelo. Este campo permite ao cliente orientar o modelo nas respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato das respostas (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento áudio (por exemplo, "fala depressa", "injeta emoção na tua voz", "ri frequentemente"). As instruções não são garantidas de serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Note que o servidor define instruções padrão que serão usadas se este campo não estiver definido e que são visíveis no session.created evento no início da sessão. |
Não | |
| max_response_output_tokens | inteiro ou cadeia | Número máximo de tokens de saída para uma resposta de um único assistente, incluindo chamadas de ferramenta. Fornecer um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um dado modelo. Por defeito, é inf. |
Não | |
| Modalidades | O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"]. |
Não | ||
| modelo | cadeia (de caracteres) | O nome da implantação usada para esta sessão. |
Não | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
Não | |
| Temperatura | Número | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos áudio, recomenda-se vivamente uma temperatura de 0,8 para melhor desempenho. |
Não | 0.8 |
| tool_choice | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
Não | Auto |
| Ferramentas | matriz | Ferramentas (funções) disponíveis para o modelo. | Não | |
| turn_detection | objecto | Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador. O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada. |
Não | |
| └─ create_response | Booleano | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD. |
Não | Verdade |
| └─ Entusiasmo | enumeração | Usado apenas para semantic_vad o modo. A vontade do modelo de responder.
low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
Não | |
| └─ interrupt_response | Booleano | Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD. |
Não | Verdade |
| └─ prefix_padding_ms | número inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms. |
Não | |
| └─ silence_duration_ms | número inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador. |
Não | |
| └─ Limiar | Número | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos. |
Não | |
| └─ Tipo | enumeração | Tipo de deteção de curva. Valores possíveis: server_vad, semantic_vad |
Não | |
| Voz | VoiceIdsShared | Não |
Respostas
Código de Estado: 200
Descrição: Sessão criada com sucesso.
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | RealtimeSessionCriarResposta |
Criar - Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crie um token API efémero para utilização em aplicações do lado do cliente com a API Realtime especificamente para transcrições em tempo real.
Pode ser configurado com os mesmos parâmetros de sessão do transcription_session.update evento cliente.
Responde com um objeto de sessão, além de uma client_secret chave que contém um token efémero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| inclui | matriz | O conjunto de itens a incluir na transcrição. Os itens atualmente disponíveis são: - item.input_audio_transcription.logprobs |
Não | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
Não | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada. |
Não | |
| └─ Tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.Valores possíveis: near_field, far_field |
Não | |
| input_audio_transcription | objecto | Configuração para transcrição áudio de entrada. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição. |
Não | |
| └─ Linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
Não | |
| └─ modelo | enumeração | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
Não | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia". |
Não | |
| Modalidades | O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"]. |
Não | ||
| turn_detection | objecto | Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador. O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada. |
Não | |
| └─ create_response | Booleano | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
| └─ Entusiasmo | enumeração | Usado apenas para semantic_vad o modo. A vontade do modelo de responder.
low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
Não | |
| └─ interrupt_response | Booleano | Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
| └─ prefix_padding_ms | número inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms. |
Não | |
| └─ silence_duration_ms | número inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador. |
Não | |
| └─ Limiar | Número | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos. |
Não | |
| └─ Tipo | enumeração | Tipo de deteção de curva. Valores possíveis: server_vad, semantic_vad |
Não |
Respostas
Código de Estado: 200
Descrição: Sessão criada com sucesso.
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | Tempo realTranscriçãoSessãoCriarResposta |
Respostas
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Cria uma resposta modelo.
Órgão do Pedido
Tipo-Conteúdo: application/json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| inclui | matriz | Não | ||
| dados introduzidos | String ou array | Entradas de modelos | Sim | |
| Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas. |
Não | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
Não | |
| parallel_tool_calls | Booleano | Se permitir que o modelo execute chamadas de ferramenta em paralelo. |
Não | Verdade |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. Saiba mais sobre o estado da conversa. |
Não | |
| Raciocínio | Fundamentação | Opções de configuração para modelos de raciocínio. | Não | |
| armazenar | Booleano | Se deve armazenar a resposta gerada do modelo para recuperação posterior via API. |
Não | Verdade |
| fluxo | Booleano | Se definido como verdadeiro, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. Consulte a secção de Streaming abaixo para mais informações. |
Não | Falso |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - Entradas e saídas de texto - Saídas Estruturadas |
Não | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido.O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam. |
Não | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar. |
Não | |
| Ferramentas | matriz | Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que pode fornecer ao modelo são: - Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o Capacidades do modelo |
Não | |
| Truncamento | enumeração | A estratégia de truncamento a usar para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, eliminando itens de entrada a meio da conversa. - disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.Valores possíveis: auto, disabled |
Não |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | Resposta | |
| Texto/Fluxo-de Eventos | responseStreamEvent |
Código de Estado: padrão
Descrição: Serviço indisponível
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | errorResposta |
API de Respostas - itens de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera uma resposta do modelo com o ID indicado.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Sim | cadeia (de caracteres) | O ID da resposta para recuperar. |
| inclui | consulta | Não | matriz | Campos adicionais a incluir na resposta. Consulte o include parâmetro para criação de Resposta acima para mais informações. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | Resposta |
Código de Estado: padrão
Descrição: Serviço indisponível
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | errorResposta |
Resposta de apagar
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Apaga uma resposta de modelo com o ID indicado.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Sim | cadeia (de caracteres) | O ID da resposta para apagar. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
Código de Estado: 404
Descrição: Não Encontrado
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | erro |
Código de Estado: padrão
Descrição: Serviço indisponível
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | errorResposta |
API de respostas - lista de itens de resposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Devolve uma lista de itens de entrada para uma dada resposta.
Parâmetros URI
| Nome | Em | Obrigatório | Tipo | Descrição |
|---|---|---|---|---|
| ponto final | caminho | Sim | URL da cadeia | Endpoints Azure OpenAI suportados (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Sim | cadeia (de caracteres) | O ID da resposta para recuperar itens de entrada para. |
| Limite | consulta | Não | número inteiro | Um limite para o número de objetos a devolver. O limite pode variar entre 1 e 100, e o padrão é 20. |
| Ordem | consulta | Não | cadeia (de caracteres) Valores possíveis: asc, desc |
A ordem para devolver os itens de entrada. O padrão é asc.- asc: Devolve os itens de entrada por ordem crescente.- desc: Devolver os itens de entrada por ordem decrescente. |
| depois | consulta | Não | cadeia (de caracteres) | Um ID de item para listar os itens depois, usado na paginação. |
| antes | consulta | Não | cadeia (de caracteres) | Um ID de item para listar itens anteriores, usado na paginação. |
Cabeçalho de Pedido
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e é mais segura.
| Nome | Obrigatório | Tipo | Descrição |
|---|---|---|---|
| Autorização | Verdade | cadeia (de caracteres) |
Exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito: https://ai.azure.com/.default |
| API-Key | Verdade | cadeia (de caracteres) | Forneça aqui a chave API Azure OpenAI |
Respostas
Código de Estado: 200
Descrição: OK
| Tipo de Conteúdo | Tipo | Descrição |
|---|---|---|
| Application/JSON | responseItemList |
Componentes
errorResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| erro | erro | Não |
ErrorBase
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | cadeia (de caracteres) | Não | ||
| mensagem | cadeia (de caracteres) | Não |
erro
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| inner_error | innerError | Erro interno com detalhes adicionais. | Não | |
| Param | cadeia (de caracteres) | Não | ||
| tipo | cadeia (de caracteres) | Não |
innerError
Erro interno com detalhes adicionais.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
| content_filter_results | contentFilterPromptResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. | Não |
innerErrorCode
Códigos de erro para o objeto de erro interno.
| Propriedade | Valor |
|---|---|
| Descrição | Códigos de erro para o objeto de erro interno. |
| Tipo | cadeia (de caracteres) |
| Valores | ResponsibleAIPolicyViolation |
dalleErroResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| erro | dalleError | Não |
dalleError
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | Não | |
| Param | cadeia (de caracteres) | Não | ||
| tipo | cadeia (de caracteres) | Não |
dalleInnerError
Erro interno com detalhes adicionais.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
| content_filter_results | dalleFilterResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. | Não | |
| revised_prompt | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, caso tenha havido alguma revisão ao prompt. | Não |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. O Offset 0 é o primeiro ponto de código UTF32 do texto de completamento.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| completion_end_offset | número inteiro | Deslocamento do primeiro ponto de código UTF32 que está excluído do vão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para vãos não vazios. | Sim | |
| completion_start_offset | número inteiro | Deslocamento do ponto de código UTF32 que inicia o vão. | Sim |
contentFilterResultBase
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| filtrado | Booleano | Sim |
contentFilterSeverityResult
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| filtrado | Booleano | Sim | ||
| Gravidade | cadeia (de caracteres) | Não |
contentFilterDetectedResult
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| detetado | Booleano | Não | ||
| filtrado | Booleano | Sim |
conteúdoFiltroDetetadoComCitaçãoResultado
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Citação | objecto | Não | ||
| └─ URL | cadeia (de caracteres) | Não | ||
| └─ licença | cadeia (de caracteres) | Não |
contentFilterDetectedWithCompletionTextSpansResult
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Detalhes | matriz | Não |
contentFilterIdResult
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| filtrado | Booleano | Sim | ||
| id | cadeia (de caracteres) | Não |
contentFilterResultsBase
Informação sobre os resultados do filtro de conteúdo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| custom_blocklists | conteúdoFiltroDetalhadosResultados | Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. | Não | |
| erro | ErrorBase | Não | ||
| Ódio | contentFilterSeverityResult | Não | ||
| Profanidade | contentFilterDetectedResult | Não | ||
| self_harm | contentFilterSeverityResult | Não | ||
| Sexual | contentFilterSeverityResult | Não | ||
| Violência | contentFilterSeverityResult | Não |
contentFilterPromptResults
Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| custom_blocklists | conteúdoFiltroDetalhadosResultados | Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. | Não | |
| erro | ErrorBase | Não | ||
| Ódio | contentFilterSeverityResult | Não | ||
| indirect_attack | contentFilterDetectedResult | Não | ||
| Jailbreak | contentFilterDetectedResult | Não | ||
| Profanidade | contentFilterDetectedResult | Não | ||
| self_harm | contentFilterSeverityResult | Não | ||
| Sexual | contentFilterSeverityResult | Não | ||
| Violência | contentFilterSeverityResult | Não |
conteúdoFiltroEscolhaResultados
Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre texto de terceiros e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| custom_blocklists | conteúdoFiltroDetalhadosResultados | Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. | Não | |
| erro | ErrorBase | Não | ||
| Ódio | contentFilterSeverityResult | Não | ||
| Profanidade | contentFilterDetectedResult | Não | ||
| protected_material_code | conteúdoFiltroDetetadoComCitaçãoResultado | Não | ||
| protected_material_text | contentFilterDetectedResult | Não | ||
| self_harm | contentFilterSeverityResult | Não | ||
| Sexual | contentFilterSeverityResult | Não | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | Não | ||
| Violência | contentFilterSeverityResult | Não |
conteúdoFiltroDetalhadosResultados
Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Detalhes | matriz | Não | ||
| filtrado | Booleano | Sim |
promptFilterResultado
Resultados de filtragem de conteúdo para um único prompt no pedido.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. | Não | |
| prompt_index | número inteiro | Não |
promptFilterResults
Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas.
Nenhuma propriedade definida para este componente.
dalleContentFilterResults
Informação sobre os resultados do filtro de conteúdo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Ódio | contentFilterSeverityResult | Não | ||
| self_harm | contentFilterSeverityResult | Não | ||
| Sexual | contentFilterSeverityResult | Não | ||
| Violência | contentFilterSeverityResult | Não |
dalleFilterResults
Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| custom_blocklists | conteúdoFiltroDetalhadosResultados | Resultados de filtragem de conteúdo com um detalhe dos IDs dos filtros de conteúdo para os segmentos filtrados. | Não | |
| Ódio | contentFilterSeverityResult | Não | ||
| Jailbreak | contentFilterDetectedResult | Não | ||
| Profanidade | contentFilterDetectedResult | Não | ||
| self_harm | contentFilterSeverityResult | Não | ||
| Sexual | contentFilterSeverityResult | Não | ||
| Violência | contentFilterSeverityResult | Não |
chatCompletionsRequestCommon
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| frequency_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. | Não | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. | Não | |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
| max_tokens | número inteiro | O número máximo de tokens permitido para a resposta gerada. Por defeito, o número de tokens que o modelo pode devolver será (4096 - tokens de prompt). Isto não é compatível com modelos da série O1. | Não | 4096 |
| metadados | objecto | Etiquetas e valores definidos pelo programador usados para filtrar completações no painel de completações armazenadas. | Não | |
| presence_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. | Não | 0 |
| Pára | String ou array | Até 4 sequências em que a API deixa de gerar mais tokens. | Não | |
| armazenar | Booleano | Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso nos nossos produtos de destilação ou avaliação de modelos. | Não | |
| fluxo | Booleano | Se definido, são enviados deltas parciais da mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. |
Não | Falso |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar o Azure OpenAI a monitorizar e detetar abusos. | Não |
createCompletionRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| best_of | número inteiro | Gera best_of completações do lado do servidor e devolve o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.Quando usado com n, best_of controla o número de concluições candidatas e n especifica quantas devolver.
best_of deve ser maior que n.Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
Não | 1 |
| Echo | Booleano | Repita o prompt além da conclusão |
Não | Falso |
| frequency_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
Não | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. Por exemplo, pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhuma |
| Logprobs | número inteiro | Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolverá uma lista dos 5 tokens mais prováveis. A API irá sempre devolver o logprob do token amostrado, pelo que pode haver até logprobs+1 até elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhuma |
| max_tokens | número inteiro | O número máximo de tokens que pode ser gerado na conclusão. A contagem de tokens do teu prompt plus max_tokens não pode exceder o comprimento do contexto do modelo. |
Não | 16 |
| n | número inteiro | Quantas conclusãos gerar para cada prompt. Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
Não | 1 |
| presence_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
Não | 0 |
| avisar | String ou array | O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens. Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treino, por isso, se não for especificado um prompt, o modelo gerará como se fosse do início de um novo documento. |
Sim | |
| Semente | número inteiro | Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
Não | |
| Pára | String ou array | Até 4 sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens. |
Não | |
| fluxo | Booleano | Se deves reverter o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem.
Exemplo de código em Python. |
Não | Falso |
| Sufixo | cadeia (de caracteres) | O sufixo que surge após a conclusão do texto inserido. Este parâmetro é suportado apenas para gpt-3.5-turbo-instruct. |
Não | Nenhuma |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
createCompletionResponse
Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos como os não transmitidos partilham a mesma forma (ao contrário do endpoint do chat).
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Escolhas | matriz | A lista de escolhas de conclusão que o modelo gerou para o prompt de entrada. | Sim | |
| criado | número inteiro | O carimbo temporal do Unix (em segundos) de quando a conclusão foi criada. | Sim | |
| id | cadeia (de caracteres) | Um identificador único para a completação. | Sim | |
| modelo | cadeia (de caracteres) | O modelo utilizado para a conclusão. | Sim | |
| objecto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Sim | |
| prompt_filter_results | promptFilterResults | Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas. | Não | |
| system_fingerprint | cadeia (de caracteres) | Esta impressão digital representa a configuração do backend com que o modelo corre. Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo. |
Não | |
| utilização | completionUtilização | Estatísticas de utilização para o pedido de conclusão. | Não |
createChatCompletionRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Áudio | objecto | Parâmetros para saída de áudio. É obrigatório quando a saída de áudio é solicitada com modalities: ["audio"]. |
Não | |
| └─ Formato | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16. Valores possíveis: wav, mp3, flac, opus, pcm16 |
Não | |
| └─ voz | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Não | |
| data_sources | matriz | As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional é compatível apenas com o Azure OpenAI. |
Não | |
| frequency_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
Não | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Descontinuado em favor de tool_choice.Controla qual (se existe) função é chamada pelo modelo. none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.none é o padrão quando não há funções presentes.
auto é o padrão se as funções estiverem presentes. |
Não | |
| Funções | matriz | Descontinuado em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não | |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia os tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. |
Não | Nenhuma |
| Logprobs | Booleano | Se deve devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, devolve as probabilidades logarítmicas de cada token de saída devolvido no content de message. |
Não | Falso |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
Não | |
| Mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código em Python. | Sim | |
| metadados | objecto | Etiquetas e valores definidos pelo programador usados para filtrar completações no painel de completações armazenadas. | Não | |
| Modalidades | ChatCompletionModalities | Tipos de saída que gostaria que o modelo gerasse para este pedido. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:["text", "audio"] |
Não | |
| n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. |
Não | 1 |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| predição | Conteúdo de Previsão | Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isto é mais comum quando se está a regenerar um ficheiro com apenas pequenas alterações na maior parte do conteúdo. | Não | |
| presence_penalty | Número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
Não | 0 |
| reasoning_effort | enumeração |
Apenas modelos O1 Limita o esforço de raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.Valores possíveis: low, medium, high |
Não | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes do que gpt-3.5-turbo-1106.A definição para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponde ao seu esquema JSON fornecido.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Semente | número inteiro | Esta funcionalidade está em Beta. Se especificado, o nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
Não | |
| Pára | String ou array | Até 4 sequências em que a API deixa de gerar mais tokens. |
Não | |
| armazenar | Booleano | Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso nos nossos produtos de destilação ou avaliação de modelos. | Não | |
| fluxo | Booleano | Se definido, são enviados deltas parciais da mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem.
Exemplo de código em Python. |
Não | Falso |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isto quando defines stream: true. |
Não | Nenhuma |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se houver ferramentas presentes. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isto para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. São suportadas um máximo de 128 funções. |
Não | |
| top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis a serem retornados em cada posição do token, cada um com uma probabilidade logarítmica associada.
logprobs deve ser definido para true se este parâmetro for utilizado. |
Não | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
| user_security_context | userSecurityContext | O contexto de segurança do utilizador contém vários parâmetros que descrevem a própria aplicação de IA e o utilizador final que interage com a aplicação de IA. Estes campos ajudam as suas equipas de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger as suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando o Microsoft Defender for Cloud. | Não |
userSecurityContext
O contexto de segurança do utilizador contém vários parâmetros que descrevem a própria aplicação de IA e o utilizador final que interage com a aplicação de IA. Estes campos ajudam as suas equipas de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger as suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando o Microsoft Defender for Cloud.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| application_name | cadeia (de caracteres) | O nome da candidatura. Informações pessoais sensíveis não devem ser incluídas neste campo. | Não | |
| end_user_id | cadeia (de caracteres) | Este identificador é o ID de utilizador Microsoft Entra ID (anteriormente Azure Active Directory), usado para autenticar utilizadores finais dentro da aplicação de IA generativa. Informações pessoais sensíveis não devem ser incluídas neste campo. | Não | |
| end_user_tenant_id | cadeia (de caracteres) | O ID do tenant Microsoft 365 a que pertence o utilizador final. É obrigatório quando a aplicação de IA generativa é multi-inquilino. | Não | |
| source_ip | cadeia (de caracteres) | Captura o endereço IP original do cliente, aceitando tanto os formatos IPv4 como IPv6. | Não |
chatFunctionsCompletionT
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
| Nome | cadeia (de caracteres) | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
| Parâmetros | FunctionParameters | Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON.
Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
chatCompletionFunctionCallOption
Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Nome | cadeia (de caracteres) | O nome da função a chamar. | Sim |
chatCompletionFunctionParameters
Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.
Nenhuma propriedade definida para este componente.
chatCompletionRequestMessage
Este componente pode ser um dos seguintes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo programador que o modelo deve seguir, independentemente das mensagens enviadas pelo utilizador.
Nos modelos O1 e mais recentes, developer as mensagens substituem as anteriores system .
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do programador. | Sim | |
| Nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | Não | |
| função | enumeração | O papel do autor das mensagens, neste caso developer.Valores possíveis: developer |
Sim |
chatCompletionRequestSystemMessage
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do sistema. | Sim | |
| Nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | Não | |
| função | enumeração | O papel do autor das mensagens, neste caso system.Valores possíveis: system |
Sim |
chatCompletionRequestUserMessage
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do utilizador. |
Sim | |
| Nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | Não | |
| função | enumeração | O papel do autor das mensagens, neste caso user.Valores possíveis: user |
Sim |
chatCompletionRequestAssistantMessage
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado. |
Não | |
| function_call | objecto | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. |
Não | |
| └─ Argumentos | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função a chamar. | Não | |
| Nome | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | Não | |
| Recusa | cadeia (de caracteres) | A mensagem de recusa do assistente. | Não | |
| função | enumeração | O papel do autor das mensagens, neste caso assistant.Valores possíveis: assistant |
Sim | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de funções. | Não |
chatCompletionRequestToolMessage
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem da ferramenta. | Sim | |
| função | enumeração | O papel do autor das mensagens, neste caso tool.Valores possíveis: tool |
Sim | |
| tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está a responder. | Sim |
chatCompletionRequestFunctionMessage
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem funcional. | Sim | |
| Nome | cadeia (de caracteres) | O nome da função a chamar. | Sim | |
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: function |
Sim |
chatCompletionRequestDeveloperMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestSystemMessageContentPaper
Este componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Este componente pode ser um dos seguintes:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistenteMensagemConteúdoParte
Este componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPaper
Este componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O conteúdo do texto. | Sim | |
| tipo | enumeração | A parte do tipo de conteúdo. Valores possíveis: text |
Sim |
chatCompletionRequestMessageContentPartAudio
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| input_audio | objecto | Sim | ||
| └─ dados | cadeia (de caracteres) | Dados de áudio codificados em Base64. | Não | |
| └─ Formato | enumeração | O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3". Valores possíveis: wav, mp3 |
Não | |
| tipo | enumeração | A parte do tipo de conteúdo. Sempre input_audio.Valores possíveis: input_audio |
Sim |
chatCompletionRequestMessageContentPartImage
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| image_url | objecto | Sim | ||
| └─ detalhe | enumeração | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. Valores possíveis: auto, low, high |
Não | |
| └─ URL | cadeia (de caracteres) | Ou uma URL da imagem ou os dados da imagem codificada base64. | Não | |
| tipo | enumeração | A parte do tipo de conteúdo. Valores possíveis: image_url |
Sim |
chatCompletionRequestMessageContentPartRefusal
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Recusa | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Sim | |
| tipo | enumeração | A parte do tipo de conteúdo. Valores possíveis: refusal |
Sim |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.
###Discriminator for azureChatExtensionConfiguration
Este componente utiliza a propriedade type para discriminar entre diferentes tipos:
| Valor de Tipo | Esquema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguração |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguração |
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Sim |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.
| Propriedade | Valor |
|---|---|
| Descrição | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
| Tipo | cadeia (de caracteres) |
| Valores | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Uma representação específica das opções configuráveis para o Azure Search quando usado como uma extensão de chat do Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Parâmetros | azureSearchChatExtensionParameters | Parâmetros para Azure Search quando usados como extensão de chat Azure OpenAI. | Não | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Sim |
azureSearchChatExtensionParameters
Parâmetros para Azure Search quando usados como extensão de chat Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| allow_partial_result | Booleano | Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManaged IdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Sim | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | Não | ||
| ponto final | cadeia (de caracteres) | O caminho de endpoint absoluto para o recurso Azure Search usar. | Sim | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. | Não | |
| filtro | cadeia (de caracteres) | Filtro de pesquisa. | Não | |
| in_scope | Booleano | Se as consultas devem ser restringidas ao uso de dados indexados. | Não | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
Não | |
| index_name | cadeia (de caracteres) | O nome do índice a usar está disponível no recurso Azure Search referenciado. | Sim | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. | Não | |
| semantic_configuration | cadeia (de caracteres) | A configuração semântica adicional para a consulta. | Não | |
| Rigor | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | Não | |
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | Não |
azureSearchIndexFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | Não | |
| image_vector_fields | matriz | Os nomes dos campos que representam dados vetoriais de imagem. | Não | |
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | Não | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | Não | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.
| Propriedade | Valor |
|---|---|
| Descrição | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. |
| Tipo | cadeia (de caracteres) |
| Valores | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Parâmetros | azureCosmosDBChatExtensionParameters | Parâmetros a usar ao configurar as extensões do chat Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. | Não | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Sim |
azureCosmosDBChatExtensionParameters
Parâmetros a usar ao configurar as extensões do chat Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| allow_partial_result | Booleano | Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação para Azure OpenAI On Your Data ao usar uma string de ligação. | Sim | |
| container_name | cadeia (de caracteres) | O nome do contentor de recursos Azure Cosmos DB. | Sim | |
| database_name | cadeia (de caracteres) | O nome da base de dados MongoDB vCore para usar com o Azure Cosmos DB. | Sim | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado. | Sim | |
| in_scope | Booleano | Se as consultas devem ser restringidas ao uso de dados indexados. | Não | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
Não | |
| index_name | cadeia (de caracteres) | O nome do índice MongoDB vCore para usar com o Azure Cosmos DB. | Sim | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
| Rigor | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | Não | |
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | Não |
azureCosmosDBFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | Não | |
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | Não | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | Não | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
elasticsearchChatExtensionConfiguração
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Parâmetros | elasticsearchChatExtensionParameters | Parâmetros a usar ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | Não | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Sim |
elasticsearchChatExtensionParameters
Parâmetros a usar ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| allow_partial_result | Booleano | Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
| autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Sim | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | Não | ||
| ponto final | cadeia (de caracteres) | O ponto final do Elasticsearch®. | Sim | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | Não | |
| in_scope | Booleano | Se as consultas devem ser restringidas ao uso de dados indexados. | Não | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
Não | |
| index_name | cadeia (de caracteres) | O nome do índice Elasticsearch®. | Sim | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
| query_type | elasticsearchQueryType | O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao utilizá-la como extensão de chat Azure OpenAI. | Não | |
| Rigor | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | Não | |
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | Não |
elasticsearchIndexFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | Não | |
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | Não | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | Não | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
elasticsearchQueryType
O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao utilizá-la como extensão de chat Azure OpenAI.
| Propriedade | Valor |
|---|---|
| Descrição | O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao utilizá-la como extensão de chat Azure OpenAI. |
| Tipo | cadeia (de caracteres) |
| Valores | simplevector |
mongoDBChatExtensionConfiguration
Uma representação específica das opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Parâmetros | mongoDBChatExtensionParameters | Parâmetros a usar ao configurar as extensões de chat Azure OpenAI On Your Data ao usar a base de dados Mongo. | Não | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Sim |
mongoDBChatExtensionParameters
Parâmetros a usar ao configurar as extensões de chat Azure OpenAI On Your Data ao usar a base de dados Mongo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| allow_partial_result | Booleano | Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
| app_name | cadeia (de caracteres) | O nome da Aplicação de Base de Dados Mongo. | Sim | |
| autenticação | onOOVosTDataNomeUtilizadorEPasswordOpções de Autenticação | As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de utilizador e uma palavra-passe. | Sim | |
| collection_name | cadeia (de caracteres) | O nome da Coleção Mongo DB. | Sim | |
| database_name | cadeia (de caracteres) | O nome da base de dados Mongo. | Sim | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
| ponto final | cadeia (de caracteres) | O nome do endpoint do cluster Mongo DB. | Sim | |
| fields_mapping | mongoDBFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso de base de dados Mongo configurado. | Sim | |
| in_scope | Booleano | Se as consultas devem ser restringidas ao uso de dados indexados. | Não | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
Não | |
| index_name | cadeia (de caracteres) | O nome do índice da base de dados Mongo. | Sim | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
| Rigor | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | Não | |
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | Não |
mongoDBFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso de base de dados Mongo configurado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | Não | |
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | Não | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | Não | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
pineconeChatExtensionConfiguração
Uma representação específica de opções configuráveis para o Pinecone quando o usa como uma extensão de chat do Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Parâmetros | Parâmetros de ExtensãoChatPinecone | Parâmetros para configurar as extensões de chat Azure OpenAI Pinecone. | Não | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Sim |
Parâmetros de ExtensãoChatPinecone
Parâmetros para configurar as extensões de chat Azure OpenAI Pinecone.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| allow_partial_result | Booleano | Se especificado como verdadeiro, o sistema permitirá a utilização de resultados parciais de pesquisa e o pedido falha se todas as consultas falharem. Se não for especificado ou especificado como falso, o pedido falhará se qualquer consulta de pesquisa falhar. | Não | Falso |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API. | Sim | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, que se baseia num nome de implementação de modelo interno de embeddings no mesmo recurso Azure OpenAI. | Sim | |
| ambiente | cadeia (de caracteres) | O nome ambiental de Pinecone. | Sim | |
| fields_mapping | PineconeFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. | Sim | |
| in_scope | Booleano | Se as consultas devem ser restringidas ao uso de dados indexados. | Não | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
Não | |
| index_name | cadeia (de caracteres) | O nome do índice da base de dados Pinecone. | Sim | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao fornecedor de pesquisa para uma mensagem de utilizador. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
| Rigor | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | Não | |
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | Não |
PineconeFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | Não | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | Não | |
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | Não | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | Não |
onYourDataAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data.
Discriminador para onYourDataAuthenticationOptions
Este componente utiliza a propriedade type para discriminar entre diferentes tipos:
| Valor de Tipo | Esquema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManaged IdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onOOVosTDataNomeUtilizadorEPasswordOpções de Autenticação |
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataContextProperty
A propriedade de contexto.
| Propriedade | Valor |
|---|---|
| Descrição | A propriedade de contexto. |
| Tipo | cadeia (de caracteres) |
| Valores | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.
| Propriedade | Valor |
|---|---|
| Descrição | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. |
| Tipo | cadeia (de caracteres) |
| Valores | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chave | cadeia (de caracteres) | A chave da API a usar para autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma string de ligação.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| connection_string | cadeia (de caracteres) | A cadeia de ligação a usar para autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar um par de chave e ID de chave Elasticsearch.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chave | cadeia (de caracteres) | A chave Elasticsearch para usar na autenticação. | Não | |
| key_id | cadeia (de caracteres) | O ID da chave Elasticsearch para usar na autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API codificada em Elasticsearch.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| encoded_api_key | cadeia (de caracteres) | A chave API codificada pelo Elasticsearch para usar na autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação do Azure OpenAI nos Seus Dados ao usar o token de acesso.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| access_token | cadeia (de caracteres) | O token de acesso a usar para autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataSystemAssignedManaged IdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao utilizar uma identidade gerida atribuída pelo sistema.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao utilizar uma identidade gerida atribuída pelo utilizador.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| managed_identity_resource_id | cadeia (de caracteres) | O ID de recurso da identidade gerida atribuída pelo utilizador a usar para autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim |
onOOVosTDataNomeUtilizadorEPasswordOpções de Autenticação
As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de utilizador e uma palavra-passe.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| palavra-passe | cadeia (de caracteres) | A palavra-passe. para usar para autenticação. | Não | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Sim | |
| nome de utilizador | cadeia (de caracteres) | O nome de utilizador a usar para autenticação. | Não |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para Azure OpenAI On Your Data com pesquisa vetorial.
Este componente utiliza a propriedade type para discriminar entre diferentes tipos:
| Valor de Tipo | Esquema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. | Sim |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial.
| Propriedade | Valor |
|---|---|
| Descrição | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. |
| Tipo | cadeia (de caracteres) |
| Valores | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, que se baseia numa chamada pública de endpoint Azure OpenAI para embeddings.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Não | ||
| Dimensões | número inteiro | O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
Não | |
| ponto final | cadeia (de caracteres) | Especifica a URL do endpoint de recurso a partir da qual os embeddings devem ser recuperados. Deve estar no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta versão da API não é permitido. |
Não | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. | Sim |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, baseia-se num nome de implementação de modelo interno de embeddings no mesmo recurso Azure OpenAI.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| deployment_name | cadeia (de caracteres) | Especifica o nome da implementação do modelo a usar para vetorização. Esta implementação do modelo deve estar no mesmo recurso Azure OpenAI, mas a On Your Data irá usar esta implementação do modelo através de uma chamada interna em vez de pública, o que permite a pesquisa vetorial mesmo em redes privadas. | Não | |
| Dimensões | número inteiro | O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
Não | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. | Sim |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido dentro do recurso de pesquisa.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. | Sim |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, baseia-se num ID de modelo de serviço de pesquisa. Atualmente apenas suportado pelo Elasticsearch®.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| model_id | cadeia (de caracteres) | Especifica o ID do modelo a usar para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. | Não | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial. | Sim |
azureChatExtensionsMessageContext
Uma representação da informação adicional de contexto disponível quando extensões de chat Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Esta informação de contexto só é preenchida quando se utiliza um pedido Azure OpenAI configurado para usar uma extensão correspondente.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| all_retrieved_documents | matriz | Todos os documentos recuperados. | Não | |
| Citações | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | Não | |
| intenção | cadeia (de caracteres) | A intenção detetada do histórico da conversa, usada para passar para o turno seguinte para manter o contexto. | Não |
Citação
Informação de citação para uma mensagem de resposta de conclusão de chat.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunk_id | cadeia (de caracteres) | A identificação do bloco da citação. | Não | |
| conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Sim | |
| Caminho do ficheiro | cadeia (de caracteres) | O caminho do ficheiro da citação. | Não | |
| rerank_score | Número | A pontuação de reclassificação do documento recuperado. | Não | |
| Título | cadeia (de caracteres) | O título da citação. | Não | |
| URL | cadeia (de caracteres) | O URL da citação. | Não |
consultadoDocumento
O documento recuperado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunk_id | cadeia (de caracteres) | A identificação do bloco da citação. | Não | |
| conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Sim | |
| data_source_index | número inteiro | O índice da fonte de dados. | Não | |
| Caminho do ficheiro | cadeia (de caracteres) | O caminho do ficheiro da citação. | Não | |
| filter_reason | filterRazão | A razão de filtragem do documento recuperado. | Não | |
| original_search_score | Número | A pontuação original da pesquisa do documento recuperado. | Não | |
| rerank_score | Número | A pontuação de reclassificação do documento recuperado. | Não | |
| search_queries | matriz | As consultas de pesquisa usadas para recuperar o documento. | Não | |
| Título | cadeia (de caracteres) | O título da citação. | Não | |
| URL | cadeia (de caracteres) | O URL da citação. | Não |
filterRazão
A razão de filtragem do documento recuperado.
| Propriedade | Valor |
|---|---|
| Descrição | A razão de filtragem do documento recuperado. |
| Tipo | cadeia (de caracteres) |
| Valores | scorererank |
chatCompletionMessageToolCall
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | A função que o modelo chamou. | Sim | |
| └─ Argumentos | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função a chamar. | Não | |
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. | Sim | |
| tipo | toolCallType | O tipo de chamada da ferramenta, neste caso function. |
Sim |
toolCallType
O tipo de chamada da ferramenta, neste caso function.
| Propriedade | Valor |
|---|---|
| Descrição | O tipo de chamada da ferramenta, neste caso function. |
| Tipo | cadeia (de caracteres) |
| Valores | function |
chatCompletionRequestMessageTool
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Não | |
| tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está a responder. | Não |
chatCompletionRequestMessageFunction
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Não | |
| Nome | cadeia (de caracteres) | O conteúdo da mensagem. | Não | |
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: function |
Não |
createChatCompletionResponse
Representa uma resposta de conclusão de chat devolvida pelo modelo, com base na entrada fornecida.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Escolhas | matriz | Uma lista de opções para completar o chat. Pode ser mais do que um se n for maior que 1. |
Sim | |
| criado | número inteiro | O carimbo temporal do Unix (em segundos) de quando a conclusão do chat foi criada. | Sim | |
| id | cadeia (de caracteres) | Um identificador único para a conclusão da conversa. | Sim | |
| modelo | cadeia (de caracteres) | O modelo usado para completar o chat. | Sim | |
| objecto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Sim | |
| prompt_filter_results | promptFilterResults | Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas. | Não | |
| system_fingerprint | cadeia (de caracteres) | Esta impressão digital representa a configuração do backend com que o modelo corre. Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo. |
Não | |
| utilização | completionUtilização | Estatísticas de utilização para o pedido de conclusão. | Não |
createChatCompletionStreamResponse
Representa um segmento transmitido de uma resposta de conclusão de chat devolvida pelo modelo, com base na entrada fornecida.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Escolhas | matriz | Uma lista de opções para completar o chat. Pode conter mais do que um elemento se n for maior que 1. |
Sim | |
| criado | número inteiro | O carimbo temporal do Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo temporal. | Sim | |
| id | cadeia (de caracteres) | Um identificador único para a conclusão da conversa. Cada bloco tem o mesmo ID. | Sim | |
| modelo | cadeia (de caracteres) | O modelo para gerar a completude. | Sim | |
| objecto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Sim | |
| system_fingerprint | cadeia (de caracteres) | Esta impressão digital representa a configuração do backend com que o modelo corre. Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo. |
Não |
chatCompletionStreamRespostaDelta
Um delta de conclusão do chat gerado pelas respostas do modelo em streaming.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem do bloco. | Não | |
| function_call | objecto | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. |
Não | |
| └─ Argumentos | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função a chamar. | Não | |
| Recusa | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Não | |
| função | enumeração | O papel do autor desta mensagem. Valores possíveis: system, user, assistant, tool |
Não | |
| tool_calls | matriz | Não |
chatCompletionMessageToolCallChunk
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | Não | ||
| └─ Argumentos | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função a chamar. | Não | |
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. | Não | |
| indexar | número inteiro | Sim | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function é suportado.Valores possíveis: function |
Não |
chatCompletionStreamOptions
Opções para resposta ao streaming. Só define isto quando defines stream: true.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| include_usage | Booleano | Se ativado, um segmento adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de utilização do token para todo o pedido, e o choices campo será sempre um array vazio. Todos os outros chunks também incluirão um usage campo, mas com valor nulo. |
Não |
chatCompletionChoiceLogProbs
Regista a informação de probabilidade da escolha.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo de mensagens com informação de probabilidade logarítmica. | Sim | |
| Recusa | matriz | Uma lista de tokens de recusa de mensagens com informação de probabilidade logarítmica. | Não |
chatCompletionTokenLogprob
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Bytes | matriz | Uma lista de inteiros que representa a representação UTF-8 bytes do token. Útil em casos em que os caracteres são representados por múltiplos tokens e as suas representações em bytes têm de ser combinadas para gerar a representação correta do texto. Pode ser null se não houver representação em bytes para o token. |
Sim | |
| logprob | Número | A probabilidade logarítmica deste token. | Sim | |
| token | cadeia (de caracteres) | O token. | Sim | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e a sua probabilidade logarítmica, nesta posição do token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. |
Sim |
chatCompletionResponseMessage
Uma mensagem de conclusão do chat gerada pelo modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Áudio | objecto | Se a modalidade de saída de áudio for solicitada, este objeto contém dados sobre a resposta áudio do modelo. | Não | |
| └─ dados | cadeia (de caracteres) | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado no pedido. |
Não | |
| └─ expires_at | número inteiro | O carimbo temporal do Unix (em segundos) para quando esta resposta áudio deixará de estar acessível no servidor para uso em conversas com múltiplos turnos. |
Não | |
| └─ ID | cadeia (de caracteres) | Identificador único para esta resposta áudio. | Não | |
| └─ transcrição | cadeia (de caracteres) | Transcrição do áudio gerado pelo modelo. | Não | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Sim | |
| contexto | azureChatExtensionsMessageContext | Uma representação da informação adicional de contexto disponível quando extensões de chat Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Esta informação de contexto só é preenchida quando se utiliza um pedido Azure OpenAI configurado para usar uma extensão correspondente. | Não | |
| function_call | chatCompletionFunctionCall | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. |
Não | |
| Recusa | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Sim | |
| função | chatCompletionRespostaMensagemPapel | O papel do autor da mensagem de resposta. | Sim | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de funções. | Não |
chatCompletionRespostaMensagemPapel
O papel do autor da mensagem de resposta.
| Propriedade | Valor |
|---|---|
| Descrição | O papel do autor da mensagem de resposta. |
| Tipo | cadeia (de caracteres) |
| Valores | assistant |
chatCompletionToolChoiceOption
Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se houver ferramentas presentes.
Este componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | Sim | ||
| └─ nome | cadeia (de caracteres) | O nome da função a chamar. | Não | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function é suportado.Valores possíveis: function |
Sim |
ParalelToolCalls
Se deve ativar a chamada paralela de funções durante a utilização da ferramenta.
Nenhuma propriedade definida para este componente.
Conteúdo de Previsão
Conteúdo de saída estático previsto, como o conteúdo de um ficheiro de texto que está a ser regenerado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a este conteúdo, toda a resposta do modelo pode ser devolvida muito mais rapidamente. | Sim | |
| tipo | enumeração | O tipo de conteúdo previsto que quer fornecer. Este tipo é atualmente sempre content.Valores possíveis: content |
Sim |
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de funções.
Nenhuma propriedade definida para este componente.
ChatCompletionModalities
Tipos de saída que gostaria que o modelo gerasse para este pedido. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:
["text", "audio"]
Nenhuma propriedade definida para este componente.
chatCompletionFunctionCall
Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. | Sim | |
| Nome | cadeia (de caracteres) | O nome da função a chamar. | Sim |
completionUtilização
Estatísticas de utilização para o pedido de conclusão.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| completion_tokens | número inteiro | Número de tokens na conclusão gerada. | Sim | |
| completion_tokens_details | objecto | Divisão dos tokens usados numa conclusão. | Não | |
| └─ accepted_prediction_tokens | número inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceu na completação. | Não | |
| └─ audio_tokens | número inteiro | Tokens de entrada de áudio gerados pelo modelo. | Não | |
| └─ reasoning_tokens | número inteiro | Tokens gerados pelo modelo para raciocínio. | Não | |
| └─ rejected_prediction_tokens | número inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, tal como os tokens de raciocínio, estes tokens continuam a ser contados no total de tokens de conclusão para efeitos de faturação, saída e limites de janela de contexto. | Não | |
| prompt_tokens | número inteiro | Número de tokens no prompt. | Sim | |
| prompt_tokens_details | objecto | Detalhes dos tokens do prompt. | Não | |
| └─ audio_tokens | número inteiro | Tokens de entrada de áudio presentes no prompt. | Não | |
| └─ cached_tokens | número inteiro | O número de tokens de prompt em cache. | Não | |
| total_tokens | número inteiro | Número total de tokens usados no pedido (prompt + conclusão). | Sim |
chatCompletionTool
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | FunctionObject | Sim | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function é suportado.Valores possíveis: function |
Sim |
FunctionParameters
Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para este componente.
FunctionObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
| Nome | cadeia (de caracteres) | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
| Parâmetros | FunctionParameters | Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON.
Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
| estrito | Booleano | Se deve permitir a adesão estrita ao esquema ao gerar a chamada de função. Se definido como verdadeiro, o modelo seguirá exatamente o esquema definido no parameters campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. |
Não | Falso |
RespostaFormatoTexto
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: textValores possíveis: text |
Sim |
ResponseFormatJsonObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: json_objectValores possíveis: json_object |
Sim |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.
Nenhuma propriedade definida para este componente.
ResponseFormatJsonSchema
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| json_schema | objecto | Sim | ||
| └─ Descrição | cadeia (de caracteres) | Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder nesse formato. | Não | |
| └─ nome | cadeia (de caracteres) | O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Não | |
| └─ Esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. | Não | |
| └─ Rigoroso | Booleano | Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo seguirá sempre o esquema exato definido no schema campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. |
Não | Falso |
| tipo | enumeração | O tipo de formato de resposta definido: json_schemaValores possíveis: json_schema |
Sim |
chatCompletionChoiceCommon
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| finish_reason | cadeia (de caracteres) | Não | ||
| indexar | número inteiro | Não |
createTranslationRequest
Pedido de tradução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O ficheiro de áudio para traduzir. | Sim | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O enunciado deve estar em inglês. | Não | |
| response_format | audioResponseFormat | Define o formato da saída. | Não | |
| Temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | Não | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format era json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Sim |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Duração | Número | Duração. | Não | |
| linguagem | cadeia (de caracteres) | Linguagem. | Não | |
| Segmentos | matriz | Não | ||
| tarefa | cadeia (de caracteres) | Tipo de tarefa áudio. | Não | |
| enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Sim | |
| Palavras | matriz | Não |
audioResponseFormat
Define o formato da saída.
| Propriedade | Valor |
|---|---|
| Descrição | Define o formato da saída. |
| Tipo | cadeia (de caracteres) |
| Valores | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Pedido de transcrição.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O objeto do ficheiro áudio para transcrever. | Sim | |
| linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. | Não | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. | Não | |
| response_format | audioResponseFormat | Define o formato da saída. | Não | |
| Temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | Não | 0 |
| timestamp_granularities[] | matriz | As granularidades do carimbo temporal para preencher esta transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo temporal. Uma ou ambas estas opções são suportadas: word, ou segment. Nota: Não existe latência adicional para carimbos temporais de segmentos, mas gerar carimbos temporais de palavra implica latência adicional. |
Não | ['segmento'] |
áudioSegmento
Segmento de transcrição ou tradução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| avg_logprob | Número | Probabilidade logarítmica média. | Não | |
| compression_ratio | Número | Taxa de compressão. | Não | |
| fim | Número | Deslocamento no final do segmento. | Não | |
| id | número inteiro | Identificador de segmento. | Não | |
| no_speech_prob | Número | Probabilidade de 'não falar'. | Não | |
| procurar | Número | Deslocamento do segmento. | Não | |
| Início | Número | Início do segmento deslocado. | Não | |
| Temperatura | Número | Temperatura. | Não | |
| enviar SMS | cadeia (de caracteres) | Texto do segmento. | Não | |
| Tokens | matriz | Símbolos do texto. | Não |
audioWord
Palavra de transcrição ou tradução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| fim | Número | Deslocamento de fim de palavra. | Não | |
| Início | Número | Início de palavra deslocado. | Não | |
| word | cadeia (de caracteres) | Palavra | Não |
createSpeechRequest
Pedido de discurso.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados introduzidos | cadeia (de caracteres) | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Sim | |
| response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
Não | |
| Velocidade | Número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0.
1.0 é o padrão. |
Não | 1.0 |
| Voz | enumeração | A voz a usar para síntese de voz. Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Sim |
Qualidade de imagem
A qualidade da imagem que será gerada.
| Propriedade | Valor |
|---|---|
| Descrição | A qualidade da imagem que será gerada. |
| Tipo | cadeia (de caracteres) |
| Padrão | Auto |
| Valores | autohighmediumlowhdstandard |
imagesResponseFormat
O formato em que as imagens geradas são devolvidas.
| Propriedade | Valor |
|---|---|
| Descrição | O formato em que as imagens geradas são devolvidas. |
| Tipo | cadeia (de caracteres) |
| Padrão | URL |
| Valores | urlb64_json |
imagesOutputFormat
O formato de ficheiro no qual as imagens geradas são devolvidas. Só é suportado para modelos em série.
| Propriedade | Valor |
|---|---|
| Descrição | O formato de ficheiro no qual as imagens geradas são devolvidas. Apenas suportado para modelos da série gpt-image-1. |
| Tipo | cadeia (de caracteres) |
| Padrão | PNG |
| Valores | pngjpeg |
imageSize
O tamanho das imagens geradas.
| Propriedade | Valor |
|---|---|
| Descrição | O tamanho das imagens geradas. |
| Tipo | cadeia (de caracteres) |
| Padrão | Auto |
| Valores | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
O estilo das imagens geradas. Só é suportado para DALL-E-3.
| Propriedade | Valor |
|---|---|
| Descrição | O estilo das imagens geradas. Só é suportado para DALL-E-3. |
| Tipo | cadeia (de caracteres) |
| Padrão | vívido |
| Valores | vividnatural |
imageContexto
Permite definir transparência para o fundo da(s) imagem(s) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1.
| Propriedade | Valor |
|---|---|
| Descrição | Permite definir transparência para o fundo da(s) imagem(s) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1. |
| Tipo | cadeia (de caracteres) |
| Padrão | Auto |
| Valores | transparentopaqueauto |
imageGenerationsRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| em segundo plano | imageContexto | Permite definir transparência para o fundo da(s) imagem(s) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1. | Não | Auto |
| n | número inteiro | O número de imagens a gerar. Para dall-e-3, apenas n=1 é suportado. | Não | 1 |
| output_compression | número inteiro | O nível de compressão (0-100%) para as imagens geradas. Este parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. | Não | 100 |
| output_format | imagesOutputFormat | O formato de ficheiro no qual as imagens geradas são devolvidas. Apenas suportado para modelos da série gpt-image-1. | Não | PNG |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para modelos da série gpt-image-1 e 4000 caracteres para dall-e-3 | Sim | |
| Qualidade | Qualidade de imagem | A qualidade da imagem que será gerada. | Não | Auto |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são devolvidas. Só é suportado para DALL-E-3. | Não | URL |
| Tamanho | imageSize | O tamanho das imagens geradas. | Não | Auto |
| Estilo | imageStyle | O estilo das imagens geradas. Só é suportado para DALL-E-3. | Não | vívido |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
imageEditsRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| imagem | String ou array | A(s) imagem(s) a editar. Deve ser um ficheiro de imagem suportado ou um array de imagens. Cada imagem deve ser um ficheiro png ou jpg com menos de 25MB. | Sim | |
| máscara | cadeia (de caracteres) | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se forem fornecidas várias imagens, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. | Não | |
| n | número inteiro | O número de imagens a gerar. | Não | 1 |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. | Sim | |
| Qualidade | Qualidade de imagem | A qualidade da imagem que será gerada. | Não | Auto |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são devolvidas. | Não | URL |
| Tamanho | imageSize | O tamanho das imagens geradas. | Não | Auto |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não |
gerarImagensResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| criado | número inteiro | O carimbo temporal do unix quando a operação foi criada. | Sim | |
| dados | matriz | Os dados de resultado da operação, se bem-sucedidos | Sim | |
| utilização | imageGeraçõesUtilização | Representa detalhes de utilização de tokens para pedidos de geração de imagens. Apenas para modelos da série GPT-image-1. | Não |
imageResultado
O URL da imagem ou imagem codificada se for bem-sucedido, e um erro caso contrário.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| b64_json | cadeia (de caracteres) | A imagem codificada base64 | Não | |
| content_filter_results | dalleContentFilterResults | Informação sobre os resultados do filtro de conteúdo. | Não | |
| prompt_filter_results | dalleFilterResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informação sobre a lista de bloqueio de clientes, se foi filtrada e o seu ID. | Não | |
| revised_prompt | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, caso tenha havido alguma revisão ao prompt. | Não | |
| URL | cadeia (de caracteres) | O URL da imagem. | Não |
imageGeraçõesUtilização
Representa detalhes de utilização de tokens para pedidos de geração de imagens. Apenas para modelos da série GPT-image-1.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| input_tokens | número inteiro | O número de tokens de entrada. | Não | |
| input_tokens_details | objecto | Uma análise detalhada dos tokens de entrada. | Não | |
| └─ image_tokens | número inteiro | O número de tokens de imagem. | Não | |
| └─ text_tokens | número inteiro | O número de tokens de texto. | Não | |
| output_tokens | número inteiro | O número de tokens de saída. | Não | |
| total_tokens | número inteiro | O número total de fichas usadas. | Não |
linha
Um objeto linha de conteúdo constituído por uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Vãos | matriz | Um array de spans que representam objetos detetados e a sua informação da caixa delimitadora. | Sim | |
| enviar SMS | cadeia (de caracteres) | Sim |
Vão
Um objeto span que representa um objeto detetado e a sua informação da caixa delimitadora.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Duração | número inteiro | O comprimento do espaço em caracteres, medido em pontos de código Unicode. | Sim | |
| Deslocamento | número inteiro | O deslocamento do carácter dentro do texto onde o espaço começa. Este deslocamento é definido como a posição do primeiro carácter do espaço, contando a partir do início do texto como pontos de código Unicode. | Sim | |
| Polígono | matriz | Um array de objetos que representa pontos no polígono que envolve o objeto detetado. | Sim | |
| enviar SMS | cadeia (de caracteres) | O conteúdo textual do espaço que representa o objeto detetado. | Sim |
runCompletionUsage
Estatísticas de utilização relacionadas com a corrida. Este valor será null se a execução não estiver num estado terminal (ou seja, in_progress, queued, etc.).
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| completion_tokens | número inteiro | Número de fichas de conclusão usadas ao longo da corrida. | Sim | |
| prompt_tokens | número inteiro | Número de tokens de prompt usados ao longo da corrida. | Sim | |
| total_tokens | número inteiro | Número total de tokens usados (prompt + completion). | Sim |
runStepCompletionUsage
Estatísticas de utilização relacionadas com o passo de corrida. Este valor será null enquanto o estado do passo de corrida for in_progress.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| completion_tokens | número inteiro | Número de tokens de conclusão usados ao longo do passo de corrida. | Sim | |
| prompt_tokens | número inteiro | Número de tokens de prompt usados ao longo do passo de corrida. | Sim | |
| total_tokens | número inteiro | Número total de tokens usados (prompt + completion). | Sim |
assistentesApiRespostaFormatoOpção
Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.
Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.
A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.
Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Este componente pode ser um dos seguintes:
assistentesApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools for permitido ser passado para a Run. Se text o modelo conseguir devolver texto ou qualquer valor necessário.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | Deve ser um dos text ou json_object. |
Não | enviar SMS |
tipo Enum: AssistentesApiRespostaFormato
| Valor | Descrição |
|---|---|
| enviar SMS | |
| json_object |
assistenteObjeto
Representa um assistant que pode chamar o modelo e usar ferramentas.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| created_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando o assistente foi criado. | Sim | |
| Descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Sim | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente utiliza. O comprimento máximo é de 256.000 caracteres. |
Sim | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
| modelo | cadeia (de caracteres) | ID do modelo a usar. | Sim | |
| Nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre assistant. |
Sim | |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O ID do armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function. |
Sim | [] |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
objeto Enum: AssistenteObjectTipo
| Valor | Descrição |
|---|---|
| assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
| Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente utiliza. O comprimento máximo é de 256.000 caracteres. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | Sim | ||
| Nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
Não | [] |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
modificaAssistentePedido
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
| Instruções | cadeia (de caracteres) | As instruções do sistema que o assistente utiliza. O comprimento máximo é de 32768 caracteres. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | Não | ||
| Nome | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Sobrepõe a lista de IDs de ficheiros disponibilizados à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | Sobrepõe o armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
Não | [] |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
deleteAssistenteResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| apagado | Booleano | Sim | ||
| id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteAssistantResponseState
| Valor | Descrição |
|---|---|
| assistente.eliminado |
listaAssistentesResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
assistenteToolsCode
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | O tipo de ferramenta a definir: code_interpreter |
Sim |
tipo Enum: assistenteToolsCodeType
| Valor | Descrição |
|---|---|
| code_interpreter |
AssistenteFerramentasFileSearch
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_search | objecto | Sobrescreve para a ferramenta de pesquisa de ficheiros. | Não | |
| └─ max_num_results | número inteiro | O número máximo de resultados que a ferramenta de pesquisa de ficheiros deve gerar. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve estar entre 1 e 50, inclusive. Note que a ferramenta de pesquisa de ficheiros pode gerar menos resultados do que max_num_results os resultados. |
Não | |
| tipo | cadeia (de caracteres) | O tipo de ferramenta a definir: file_search |
Sim |
tipo Enum: assistenteFerramentasFicheiroPesquisaTipo
| Valor | Descrição |
|---|---|
| file_search |
AssistenteFerramentasFicheiroPesquisaSó
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | O tipo de ferramenta a definir: file_search |
Sim |
tipo Enum: assistenteFerramentasFicheiroPesquisaTipo
| Valor | Descrição |
|---|---|
| file_search |
assistenteFunçãoFerramentas
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | A definição da função. | Sim | |
| └─ Descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Não | |
| └─ Parâmetros | chatCompletionFunctionParameters | Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. | Não | |
| tipo | cadeia (de caracteres) | O tipo de ferramenta a definir: function |
Sim |
tipo Enum: assistenteFerramentasFunção
| Valor | Descrição |
|---|---|
| função |
truncationObject
Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| last_messages | número inteiro | O número de mensagens mais recentes da thread ao construir o contexto para a execução. | Não | |
| tipo | cadeia (de caracteres) | A estratégia de truncamento a usar para a thread. O padrão é auto. Se definido para last_messages, o thread será truncado para as n mensagens mais recentes do thread. Quando definido para auto, mensagens no meio da thread serão descartadas para se ajustar ao comprimento contextual do modelo, max_prompt_tokens. |
Sim |
tipo Enum: TruncationType
| Valor | Descrição |
|---|---|
| Auto | |
| last_messages |
assistentesApiToolChoiceOption
Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta.
Este componente pode ser um dos seguintes:
assistentesEscolhaFerramentaNomeada
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | Não | ||
| └─ nome | cadeia (de caracteres) | O nome da função a chamar. | Não | |
| tipo | cadeia (de caracteres) | O tipo da ferramenta. Se o tipo for function, o nome da função deve ser definido |
Sim |
tipo Enum: AssistentesNomeadoEscolhaFerramenta
| Valor | Descrição |
|---|---|
| função | |
| code_interpreter | |
| file_search |
runObject
Representa uma execução em threads.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | O ID do assistente usado para a execução desta execução. | Sim | |
| cancelled_at | número inteiro | O carimbo de tempo do Unix (em segundos) indica quando a execução foi cancelada. | Sim | |
| completed_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a execução foi concluída. | Sim | |
| created_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a execução foi criada. | Sim | |
| expires_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a execução expira. | Sim | |
| failed_at | número inteiro | O carimbo temporal do Unix (em segundos) para quando a execução falhou. | Sim | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| incomplete_details | objecto | Detalhes sobre porque é que a série está incompleta. Vai ficar null se a corrida não estiver incompleta. |
Sim | |
| └─ Razão | cadeia (de caracteres) | A razão pela qual a série está incompleta. Isto indicará qual o limite específico de tokens atingido ao longo da corrida. | Não | |
| Instruções | cadeia (de caracteres) | As instruções que o assistente usou para esta corrida. | Sim | |
| last_error | objecto | O último erro associado a esta corrida. Será null se não houver erros. |
Sim | |
| └─ código | cadeia (de caracteres) | Um de server_error ou rate_limit_exceeded. |
Não | |
| └─ Mensagem | cadeia (de caracteres) | Uma descrição legível para humanos do erro. | Não | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão especificados para terem sido usados ao longo da corrida. |
Sim | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt especificados a serem usados ao longo da execução. |
Sim | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
| modelo | cadeia (de caracteres) | O modelo que o assistente usou nesta corrida. | Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.run. |
Sim | |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| required_action | objecto | Detalhes sobre a ação necessária para continuar a corrida. Será null se não for necessária qualquer ação. |
Sim | |
| └─ submit_tool_outputs | objecto | Detalhes sobre as saídas das ferramentas necessárias para que esta corrida continue. | Não | |
| └─ tool_calls | matriz | Uma lista das chamadas de ferramentas relevantes. | Não | |
| └─ Tipo | enumeração | Por agora, isto é sempre submit_tool_outputs.Valores possíveis: submit_tool_outputs |
Não | |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Sim | |
| started_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a execução foi iniciada. | Sim | |
| estado | cadeia (de caracteres) | O estado da sequência, que pode ser , queuedin_progress, requires_action, cancelling, cancelled, failed, completed, , ou expired. |
Sim | |
| Temperatura | Número | A temperatura de amostragem utilizada nesta corrida. Se não estiver definido, por defeito é 1. | Não | |
| thread_id | cadeia (de caracteres) | O ID dos threads em que foi executado como parte desta execução. | Sim | |
| tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta. |
Sim | |
| Ferramentas | matriz | A lista de ferramentas que o assistente usou nesta corrida. | Sim | [] |
| top_p | Número | O valor de amostragem do núcleo usado nesta corrida. Se não estiver definido, por defeito é 1. | Não | |
| truncation_strategy | truncationObject | Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. | Sim | |
| utilização | runCompletionUsage | Estatísticas de utilização relacionadas com a corrida. Este valor será null se a execução não estiver num estado terminal (ou seja, in_progress, queued, etc.). |
Sim |
object Enum: runObjectType
| Valor | Descrição |
|---|---|
| thread.run | O tipo de objeto run que é sempre thread.run |
status Enum: RunObjectStatus
| Valor | Descrição |
|---|---|
| em fila | O estado em fila |
| in_progress | O estado in_progress |
| requires_action | O estado required_action |
| Cancelamento | O estado de cancelamento |
| cancelado | O estado extinto |
| Falhou | O estado falhado |
| concluído | O estado concluído |
| expirado | O estado expirado |
createRunRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| additional_instructions | cadeia (de caracteres) | Acrescenta instruções adicionais no final das instruções para a corrida. Isto é útil para modificar o comportamento a cada execução sem sobrepor outras instruções. | Não | |
| additional_messages | matriz | Adiciona mensagens adicionais ao tópico antes de criar a execução. | Não | |
| assistant_id | cadeia (de caracteres) | O ID do assistente a usar para executar esta execução. | Sim | |
| Instruções | cadeia (de caracteres) | Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. | Não | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | O ID do Modelo a ser usado para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | Booleano | Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem. |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta. |
Não | |
| Ferramentas | matriz | Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. | Não | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
| truncation_strategy | truncationObject | Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. | Não |
listRunsResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
modifyRunRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
submitToolOutputsRunRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| fluxo | Booleano | Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem. |
Não | |
| tool_outputs | matriz | Uma lista das ferramentas para as quais os resultados estão a ser submetidos. | Sim |
runToolCallObject
Chamadas de objetos de ferramenta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | A definição da função. | Sim | |
| └─ Argumentos | cadeia (de caracteres) | Os argumentos que o modelo espera que passes à função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função. | Não | |
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. Este ID deve ser referenciado quando submeter as saídas da ferramenta usando as saídas da ferramenta para executar o endpointendpoint. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta para a qual a saída é necessária. Por agora, isto é sempre function. |
Sim |
tipo Enum: RunToolCallObjectType
| Valor | Descrição |
|---|---|
| função |
createThreadAndRunRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | O ID do assistente a usar para executar esta execução. | Sim | |
| Instruções | cadeia (de caracteres) | Sobrescrita a mensagem de sistema padrão do assistente. Isto é útil para modificar o comportamento em cada execução. | Não | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da corrida. A corrida faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de fichas de conclusão especificado, a sequência terminará com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da corrida. A corrida faz um esforço máximo para usar apenas o número de fichas de prompt especificado, ao longo de várias voltas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência termina com o estado incomplete. Consulte incomplete_details para mais informações. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | O ID dos modelos a serem usados para executar esta execução. Se um valor for fornecido aqui, este irá sobrepor-se ao modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
| parallel_tool_calls | ParalelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | Não | Verdade |
| response_format | assistentesApiRespostaFormatoOpção | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | Booleano | Se true, devolve um fluxo de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra num estado terminal com uma data: [DONE] mensagem. |
Não | |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isto quando defines stream: true. |
Não | Nenhuma |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. |
Não | 1 |
| conversa | createThreadRequest | Não | ||
| tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} obriga o modelo a chamar essa ferramenta. |
Não | |
| tool_resources | objecto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O ID do armazenamento vetorial associado a este assistente. Pode haver um máximo de 1 armazenamento vetorial associado ao assistente. |
Não | |
| Ferramentas | matriz | Anule as ferramentas que o assistente pode usar nesta corrida. Isto é útil para modificar o comportamento em cada execução. | Não | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou a temperatura, mas não ambos. |
Não | 1 |
| truncation_strategy | truncationObject | Controlos sobre como um thread será truncado antes da execução. Use isto para controlar a janela de contexto inicial da execução. | Não |
threadObject
Representa um fio que contém mensagens.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| created_at | número inteiro | O timestamp do Unix (em segundos) indica quando a thread foi criada. | Sim | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread. |
Sim | |
| tool_resources | objecto | Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Sim | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não |
object Enum: ThreadObjectType
| Valor | Descrição |
|---|---|
| conversa | O tipo de objeto thread que é sempre thread |
createThreadRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Mensagens | matriz | Uma lista de mensagens para começar o tópico. | Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| tool_resources | objecto | Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiros disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a este fio. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não |
ModificaThreadRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| tool_resources | objecto | Um conjunto de recursos disponibilizados às ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de ficheiros, enquanto file_search requer uma lista de IDs de armazenamento vetorial. |
Não | |
| └─ code_interpreter | objecto | Não | ||
| └─ file_ids | matriz | Uma lista de IDs de ficheiro disponibilizada à code_interpreter ferramenta. Pode haver um máximo de 20 ficheiros associados à ferramenta. |
Não | [] |
| └─ file_search | objecto | Não | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a este tópico. Pode haver um máximo de 1 armazenamento vetorial ligado à thread. |
Não |
deleteThreadResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| apagado | Booleano | Sim | ||
| id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteThreadResponseObjectState
| Valor | Descrição |
|---|---|
| thread.deleted | O estado do objeto delete thread response que é thread.deleted |
listaThreadsResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
messageObject
Representa uma mensagem dentro de um thread.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | Se aplicável, o ID do assistente que redigiu esta mensagem. | Sim | |
| Anexos | matriz | Uma lista de ficheiros anexados à mensagem e as ferramentas a que foram adicionados. | Sim | |
| completed_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a mensagem foi concluída. | Sim | |
| conteúdo | matriz | O conteúdo da mensagem em conjunto de texto e/ou imagens. | Sim | |
| created_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a mensagem foi criada. | Sim | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| incomplete_at | número inteiro | O carimbo temporal do Unix (em segundos) indicava quando a mensagem era marcada como incompleta. | Sim | |
| incomplete_details | objecto | Numa mensagem incompleta, detalhes sobre o motivo pelo qual a mensagem está incompleta. | Sim | |
| └─ Razão | cadeia (de caracteres) | A razão pela qual a mensagem está incompleta. | Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.message. |
Sim | |
| função | cadeia (de caracteres) | A entidade que produziu a mensagem. Um de user ou assistant. |
Sim | |
| run_id | cadeia (de caracteres) | Se aplicável, o ID da execução associada à autoria desta mensagem. | Sim | |
| estado | cadeia (de caracteres) | O estado da mensagem, que pode ser , in_progressincomplete, ou completed. |
Sim | |
| thread_id | cadeia (de caracteres) | O ID da thread a que esta mensagem pertence. | Sim |
objeto Enum: MessageObjectType
| Valor | Descrição |
|---|---|
| thread.message | O tipo de objeto mensagem, que é thread.message |
status Enum: MessageObjectStatus
| Valor | Descrição |
|---|---|
| in_progress | |
| incompleto | |
| concluído |
role Enum: MessageObjectRole
| Valor | Descrição |
|---|---|
| utilizador | |
| assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, quaisquer campos alterados numa mensagem durante o streaming.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Delta | objecto | O delta que contém os campos que mudaram na Mensagem. | Sim | |
| └─ Conteúdo | matriz | O conteúdo da mensagem em conjunto de texto e/ou imagens. | Não | |
| └─ Papel | cadeia (de caracteres) | A entidade que produziu a mensagem. Um de user ou assistant. |
Não | |
| id | cadeia (de caracteres) | O identificador da mensagem, que pode ser referenciado nos endpoints da API. | Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.message.delta. |
Sim |
object Enum: MessageDeltaObjectType
| Valor | Descrição |
|---|---|
| thread.message.delta |
CreateMessageRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Anexos | matriz | Uma lista de ficheiros anexados à mensagem e as ferramentas a que devem ser adicionados. | Não | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Sim | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| função | cadeia (de caracteres) | O papel da entidade que está a criar a mensagem. Os valores permitidos incluem: - user: Indica que a mensagem foi enviada por um utilizador real e deve ser usada na maioria dos casos para representar mensagens geradas pelo utilizador.- assistant: Indica que a mensagem é gerada pelo assistente. Use este valor para inserir mensagens do assistente na conversa. |
Sim |
role Enum: CreateMessageRequestRole
| Valor | Descrição |
|---|---|
| utilizador | |
| assistente |
ModifyMessageRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
deleteMessageResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| apagado | Booleano | Sim | ||
| id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteMessageResponseObject
| Valor | Descrição |
|---|---|
| thread.message.deleted | O estado do objeto delete message response |
listaMensagensResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
mensagemConteúdoImageImageFileObject
Faz referência a um ficheiro de imagem no conteúdo de uma mensagem.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| image_file | objecto | Sim | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro da imagem no conteúdo da mensagem. | Não | |
| tipo | cadeia (de caracteres) | Sempre image_file. |
Sim |
tipo Enum: MessageContentImageFileObjectType
| Valor | Descrição |
|---|---|
| image_file | O tipo de ficheiro de imagem de conteúdo da mensagem |
messageContentTextObject
O conteúdo textual que faz parte de uma mensagem.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| enviar SMS | objecto | Sim | ||
| └─ Anotações | matriz | Não | ||
| └─ Valor | cadeia (de caracteres) | Os dados que compõem o texto. | Não | |
| tipo | cadeia (de caracteres) | Sempre text. |
Sim |
tipo Enum: mensagemConteúdoTextoObjetoType
| Valor | Descrição |
|---|---|
| enviar SMS | O conteúdo da mensagem texto Tipo de objeto |
mensagemConteúdoTextoAnotaçõesFicheiroCitaçãoObjeto
Uma citação dentro da mensagem que aponta para uma citação específica de um ficheiro específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar ficheiros.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| end_index | número inteiro | Sim | ||
| file_citation | objecto | Sim | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro específico de onde a citação provém. | Não | |
| start_index | número inteiro | Sim | ||
| enviar SMS | cadeia (de caracteres) | O texto na mensagem é o conteúdo que precisa de ser substituído. | Sim | |
| tipo | cadeia (de caracteres) | Sempre file_citation. |
Sim |
tipo Enum: FileCitationObjectType
| Valor | Descrição |
|---|---|
| file_citation | O tipo de objeto de citação do ficheiro |
mensagemConteúdoTextoAnotaçõesObjetoCaminhoDeFicheiro
Um URL para o ficheiro que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um ficheiro.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| end_index | número inteiro | Sim | ||
| file_path | objecto | Sim | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro que foi gerado. | Não | |
| start_index | número inteiro | Sim | ||
| enviar SMS | cadeia (de caracteres) | O texto na mensagem é o conteúdo que precisa de ser substituído. | Sim | |
| tipo | cadeia (de caracteres) | Sempre file_path. |
Sim |
tipo Enum: FilePathObjectType
| Valor | Descrição |
|---|---|
| file_path | O tipo de objeto path do ficheiro |
messageDeltaContentImageFileObject
Faz referência a um ficheiro de imagem no conteúdo de uma mensagem.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| image_file | objecto | Não | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro da imagem no conteúdo da mensagem. | Não | |
| indexar | número inteiro | O índice da parte de conteúdo na mensagem. | Sim | |
| tipo | cadeia (de caracteres) | Sempre image_file. |
Sim |
tipo Enum: MessageDeltaContentImageFileObjectType
| Valor | Descrição |
|---|---|
| image_file |
messageDeltaContentTextObject
O conteúdo textual que faz parte de uma mensagem.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| indexar | número inteiro | O índice da parte de conteúdo na mensagem. | Sim | |
| enviar SMS | objecto | Não | ||
| └─ Anotações | matriz | Não | ||
| └─ Valor | cadeia (de caracteres) | Os dados que compõem o texto. | Não | |
| tipo | cadeia (de caracteres) | Sempre text. |
Sim |
tipo Enum: MessageDeltaContentTextObjectType
| Valor | Descrição |
|---|---|
| enviar SMS |
mensagemDeltaConteúdoTextoAnotaçõesFicheiroCitaçãoObjeto
Uma citação dentro da mensagem que aponta para uma citação específica de um ficheiro específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar ficheiros.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| end_index | número inteiro | Não | ||
| file_citation | objecto | Não | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro específico de onde a citação provém. | Não | |
| └─ citação | cadeia (de caracteres) | A citação específica no processo. | Não | |
| indexar | número inteiro | O índice da anotação na parte do conteúdo do texto. | Sim | |
| start_index | número inteiro | Não | ||
| enviar SMS | cadeia (de caracteres) | O texto na mensagem é o conteúdo que precisa de ser substituído. | Não | |
| tipo | cadeia (de caracteres) | Sempre file_citation. |
Sim |
tipo Enum: MensagemDeltaConteúdoTextoAnotaçõesFicheiroCitaçãoObjetoType
| Valor | Descrição |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Um URL para o ficheiro que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um ficheiro.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| end_index | número inteiro | Não | ||
| file_path | objecto | Não | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro que foi gerado. | Não | |
| indexar | número inteiro | O índice da anotação na parte do conteúdo do texto. | Sim | |
| start_index | número inteiro | Não | ||
| enviar SMS | cadeia (de caracteres) | O texto na mensagem é o conteúdo que precisa de ser substituído. | Não | |
| tipo | cadeia (de caracteres) | Sempre file_path. |
Sim |
tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Valor | Descrição |
|---|---|
| file_path |
runStepObject
Representa um passo na execução de uma sequência.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | O ID do assistente associado ao passo de corrida. | Sim | |
| cancelled_at | número inteiro | O carimbo temporal do Unix (em segundos) indicava quando o passo de execução era cancelado. | Sim | |
| completed_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando o passo de execução terminou. | Sim | |
| created_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando o passo de execução foi criado. | Sim | |
| expired_at | número inteiro | O timestamp do Unix (em segundos) indica quando o passo de execução expirou. Um passo é considerado expirado se a corrida principal estiver expirada. | Sim | |
| failed_at | número inteiro | O carimbo temporal do Unix (em segundos) para quando o passo de execução falhou. | Sim | |
| id | cadeia (de caracteres) | O identificador do passo de execução, que pode ser referenciado nos endpoints da API. | Sim | |
| last_error | objecto | O último erro associado a este passo de corrida. Será null se não houver erros. |
Sim | |
| └─ código | cadeia (de caracteres) | Um de server_error ou rate_limit_exceeded. |
Não | |
| └─ Mensagem | cadeia (de caracteres) | Uma descrição legível para humanos do erro. | Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre assistant.run.step. |
Sim | |
| run_id | cadeia (de caracteres) | O ID da execução da qual este passo faz parte. | Sim | |
| estado | cadeia (de caracteres) | O estado da sequência, que pode ser , in_progresscancelled, failed, completed, ou expired. |
Sim | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes do passo de corrida. | Sim | |
| thread_id | cadeia (de caracteres) | O ID dos tópicos que foram executados. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de passo de corrida, que pode ser ou message_creationtool_calls. |
Sim |
object Enum: RunStepObjectType
| Valor | Descrição |
|---|---|
| assistente.corre.passo | O tipo de objeto, que é sempre assistant.run.step |
tipo Enum: RunStepObjectType
| Valor | Descrição |
|---|---|
| message_creation | O passo message_creation corrida |
| tool_calls | O passo tool_calls corrida |
status Enum: RunStepObjectStatus
| Valor | Descrição |
|---|---|
| in_progress | O estado da in_progress corrida |
| cancelado | O estado da corrida cancelada |
| Falhou | O estado da corrida cancelada |
| concluído | O estado da corrida cancelada |
| expirado | O estado da corrida cancelada |
runStepDeltaObject
Representa um delta de run step, ou seja, quaisquer campos alterados num run step durante o streaming.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Delta | objecto | O delta que contém os campos que mudaram no passo de corrida. | Sim | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes do passo de corrida. | Não | |
| id | cadeia (de caracteres) | O identificador do passo de execução, que pode ser referenciado nos endpoints da API. | Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.run.step.delta. |
Sim |
object Enum: RunStepDeltaObjectType
| Valor | Descrição |
|---|---|
| thread.run.step.delta |
listaCorrerPassosResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pelo passo de execução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| message_creation | objecto | Sim | ||
| └─ message_id | cadeia (de caracteres) | O ID da mensagem criada por este passo de execução. | Não | |
| tipo | cadeia (de caracteres) | Sempre message_creation. |
Sim |
tipo Enum: RunStepDetailsMessageCreationObjectType
| Valor | Descrição |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pelo passo de execução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| message_creation | objecto | Não | ||
| └─ message_id | cadeia (de caracteres) | O ID da mensagem criada por este passo de execução. | Não | |
| tipo | cadeia (de caracteres) | Sempre message_creation. |
Sim |
tipo Enum: RunStepDeltaStepDetailsMessageCreationObjectType
| Valor | Descrição |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada à ferramenta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tool_calls | matriz | Uma série de chamadas de ferramenta em que o passo de execução estava envolvido. Estas podem estar associadas a um de três tipos de ferramentas: code_interpreter, retrieval ou function. |
Sim | |
| tipo | cadeia (de caracteres) | Sempre tool_calls. |
Sim |
tipo Enum: RunStepDetailsToolCallsObjectType
| Valor | Descrição |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada à ferramenta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tool_calls | matriz | Uma série de chamadas de ferramenta em que o passo de execução estava envolvido. Estas podem estar associadas a um de três tipos de ferramentas: code_interpreter, file_search ou function. |
Não | |
| tipo | cadeia (de caracteres) | Sempre tool_calls. |
Sim |
tipo Enum: RunStepDeltaStepsToolsCallsObjectType
| Valor | Descrição |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Os detalhes da ferramenta Code Interpreter chamam o passo de execução em que estavam envolvidos.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| code_interpreter | objecto | A definição da ferramenta de Interpretador de Código. | Sim | |
| └─ Entrada | cadeia (de caracteres) | A entrada para a ferramenta Code Interpreter chama. | Não | |
| └─ Saídas | matriz | As saídas da ferramenta Code Interpreter chamam. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um destes é representado por um tipo de objeto diferente. |
Não | |
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isto vai ser code_interpreter sempre para este tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDetailsToolCallsCodeObjectType
| Valor | Descrição |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Os detalhes da ferramenta Code Interpreter chamam o passo de execução em que estavam envolvidos.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| code_interpreter | objecto | A definição da ferramenta de Interpretador de Código. | Não | |
| └─ Entrada | cadeia (de caracteres) | A entrada para a ferramenta Code Interpreter chama. | Não | |
| └─ Saídas | matriz | As saídas da ferramenta Code Interpreter chamam. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um destes é representado por um tipo de objeto diferente. |
Não | |
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. | Não | |
| indexar | número inteiro | O índice da chamada de ferramenta no array de chamadas de ferramenta. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isto vai ser code_interpreter sempre para este tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDeltaStepsToolCallsCodeObjectType
| Valor | Descrição |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
A saída de texto da ferramenta Code Interpreter chama como parte de um passo de execução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| registos | cadeia (de caracteres) | A saída de texto da ferramenta Code Interpreter chama. | Sim | |
| tipo | cadeia (de caracteres) | Sempre logs. |
Sim |
tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Valor | Descrição |
|---|---|
| registos |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
A saída de texto da ferramenta Code Interpreter chama como parte de um passo de execução.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| indexar | número inteiro | O índice da saída no array de saídas. | Sim | |
| registos | cadeia (de caracteres) | A saída de texto da ferramenta Code Interpreter chama. | Não | |
| tipo | cadeia (de caracteres) | Sempre logs. |
Sim |
tipo Enum: RunStepDeltaStepDetalhesFerramentaChamadasCodeOutputLogsObjectType
| Valor | Descrição |
|---|---|
| registos |
runStepDetailsToolCallsCodeOutputImageObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| imagem | objecto | Sim | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro da imagem. | Não | |
| tipo | cadeia (de caracteres) | Sempre image. |
Sim |
tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Valor | Descrição |
|---|---|
| imagem |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| imagem | objecto | Não | ||
| └─ file_id | cadeia (de caracteres) | O ID do ficheiro da imagem. | Não | |
| indexar | número inteiro | O índice da saída no array de saídas. | Sim | |
| tipo | cadeia (de caracteres) | Sempre image. |
Sim |
tipo Enum: RunStepDeltaDetalhesFerramentaChamadasCodeImageOutputImageObject
| Valor | Descrição |
|---|---|
| imagem |
runStepDetailsToolCallsFileSearchObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_search | objecto | Por agora, isto vai ser sempre um objeto vazio. | Sim | |
| └─ Resultados | matriz | Os resultados da pesquisa no ficheiro. | Não | |
| id | cadeia (de caracteres) | O ID da ferramenta chama objeto. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isto vai ser file_search sempre para este tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
| Valor | Descrição |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Uma instância de resultado da pesquisa de ficheiros.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo do resultado que foi encontrado. O conteúdo só é incluído se solicitado através do parâmetro de consulta de inclusão. | Não | |
| file_id | cadeia (de caracteres) | O ID do ficheiro onde esse resultado foi encontrado. | Sim | |
| file_name | cadeia (de caracteres) | O nome do ficheiro onde o resultado foi encontrado. | Sim | |
| classificação | Número | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. | Sim |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_search | objecto | Por agora, isto vai ser sempre um objeto vazio. | Sim | |
| id | cadeia (de caracteres) | O ID da ferramenta chama objeto. | Não | |
| indexar | número inteiro | O índice da chamada de ferramenta no array de chamadas de ferramenta. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isto vai ser retrieval sempre para este tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDeltaStepsToolsCallsFileSearchObjectType
| Valor | Descrição |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | A definição da função que foi chamada. | Sim | |
| └─ Argumentos | cadeia (de caracteres) | Os argumentos passaram para a função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função. | Não | |
| └─ Saída | cadeia (de caracteres) | A saída da função. Isto acontecerá null se os resultados ainda não tiverem sido submetidos. |
Não | |
| id | cadeia (de caracteres) | O ID da ferramenta chama objeto. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isto vai ser function sempre para este tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDetailsToolcallsFunctionObjectType
| Valor | Descrição |
|---|---|
| função |
runStepDeltaStepsToolsCallsFunctionObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| função | objecto | A definição da função que foi chamada. | Não | |
| └─ Argumentos | cadeia (de caracteres) | Os argumentos passaram para a função. | Não | |
| └─ nome | cadeia (de caracteres) | O nome da função. | Não | |
| └─ Saída | cadeia (de caracteres) | A saída da função. Isto acontecerá null se os resultados ainda não tiverem sido submetidos. |
Não | |
| id | cadeia (de caracteres) | O ID da ferramenta chama objeto. | Não | |
| indexar | número inteiro | O índice da chamada de ferramenta no array de chamadas de ferramenta. | Sim | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isto vai ser function sempre para este tipo de chamada de ferramenta. |
Sim |
tipo Enum: RunStepDetailsToolcallsFunctionObjectType
| Valor | Descrição |
|---|---|
| função |
vectorStoreExpirationAfter
A política de expiração para uma loja vetorial.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| âncora | cadeia (de caracteres) | Carimbo temporal da âncora, após o qual se aplica a apólice de validade. Âncoras suportadas: last_active_at. |
Sim | |
| Dias | número inteiro | O número de dias após o tempo de ancoragem em que o armazenamento vetorial expirará. | Sim |
âncora Enum: VectorStoreExpirationAfterAnchor
| Valor | Descrição |
|---|---|
| last_active_at | O carimbo temporal da âncora após o qual se aplica a apólice de validade. |
vectorStoreObject
Um armazenamento vetorial é uma coleção de ficheiros processados que podem ser usados pela file_search ferramenta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| created_at | número inteiro | O carimbo de tempo Unix (em segundos) para quando a memória vetorial foi criada. | Sim | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para uma loja vetorial. | Não | |
| expires_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando a loja vetorial expira. | Não | |
| file_counts | objecto | Sim | ||
| └─ cancelado | número inteiro | O número de ficheiros que foram cancelados. | Não | |
| └─ concluído | número inteiro | O número de ficheiros que foram processados com sucesso. | Não | |
| └─ falhou | número inteiro | O número de ficheiros que não foram processados. | Não | |
| └─ in_progress | número inteiro | O número de ficheiros que estão atualmente a ser processados. | Não | |
| └─ total | número inteiro | O número total de ficheiros. | Não | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| last_active_at | número inteiro | O carimbo temporal do Unix (em segundos) indica quando o armazenamento vetorial esteve ativo pela última vez. | Sim | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
| Nome | cadeia (de caracteres) | O nome da loja vetorial. | Sim | |
| objecto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Sim | |
| estado | cadeia (de caracteres) | O estado do armazenamento vetorial, que pode ser , expiredin_progress, ou completed. Um estado de completed indica que o armazenamento vetorial está pronto para uso. |
Sim | |
| usage_bytes | número inteiro | O número total de bytes usados pelos ficheiros na loja vetorial. | Sim |
status Enum: VectorStoreObjectStatus
| Valor | Descrição |
|---|---|
| expirado | |
| in_progress | |
| concluído |
createVectorStoreRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Só se aplica se file_ids estiver não vazio. |
Não | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para uma loja vetorial. | Não | |
| file_ids | matriz | Uma lista de IDs de ficheiros que o armazenamento vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. |
Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| Nome | cadeia (de caracteres) | O nome da loja vetorial. | Não |
updateVectorStoreRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração para uma loja vetorial. | Não | |
| metadados | objecto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado. As chaves podem ter um máximo de 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
| Nome | cadeia (de caracteres) | O nome da loja vetorial. | Não |
listVectorStoresResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
deleteVectorStoreResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| apagado | Booleano | Sim | ||
| id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteVectorStoreResponseObject
| Valor | Descrição |
|---|---|
| vector_store.deleted | O estado do objeto de resposta armazenar o vetor delete |
vectorStoreFileObject
Uma lista de ficheiros anexados a uma loja vetorial.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. Só se aplica se file_ids estiver não vazio. |
Não | |
| created_at | número inteiro | O carimbo temporal do Unix (em segundos) para quando o ficheiro de armazenamento vetorial foi criado. | Sim | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| last_error | objecto | O último erro associado a este ficheiro de armazenamento vetorial. Será null se não houver erros. |
Sim | |
| └─ código | cadeia (de caracteres) | Um de server_error ou invalid_file ou unsupported_file. |
Não | |
| └─ Mensagem | cadeia (de caracteres) | Uma descrição legível para humanos do erro. | Não | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre vector_store.file. |
Sim | |
| estado | cadeia (de caracteres) | O estado do ficheiro de armazenamento vetorial, que pode ser , in_progresscompleted, cancelled, ou failed. O estado completed indica que o ficheiro de armazenamento vetorial está pronto para uso. |
Sim | |
| usage_bytes | número inteiro | A utilização total de vetores armazena em bytes. Note que isto pode ser diferente do tamanho original do ficheiro. | Sim | |
| vector_store_id | cadeia (de caracteres) | O ID do armazenamento vetorial a que o ficheiro está ligado. | Sim |
objeto Enum: VectorStoreFileObjectType
| Valor | Descrição |
|---|---|
| vector_store.file |
status Enum: VectorStoreFileObjectStatus
| Valor | Descrição |
|---|---|
| in_progress | |
| concluído | |
| cancelado | |
| Falhou |
outrosChunkingEstratégiaRespostaParam
Isto é devolvido quando a estratégia de fragmentação é desconhecida. Normalmente, isto deve-se ao facto de o ficheiro ter sido indexado antes de o chunking_strategy conceito ser introduzido na API.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | Sempre other. |
Sim |
tipo Enum: OtherChunkingStrategyResponseParamType
| Valor | Descrição |
|---|---|
| Outros |
staticChunkingEstratégiaRespostaParam
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| estático | staticChunkingEstratégia | Sim | ||
| tipo | cadeia (de caracteres) | Sempre static. |
Sim |
tipo Enum: StaticChunkingStrategyResponseParamType
| Valor | Descrição |
|---|---|
| estático |
staticChunkingEstratégia
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunk_overlap_tokens | número inteiro | O número de tokens que se sobrepõem entre blocos. O valor padrão é 400.Note-se que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Sim | |
| max_chunk_size_tokens | número inteiro | O número máximo de fichas em cada bloco. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. |
Sim |
autoChunkingStrategyRequestParam
A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Sim |
staticChunkingStrategyRequestParam
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| estático | staticChunkingEstratégia | Sim | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Sim |
chunkingStrategyRequestParam
A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia.
Este componente pode ser um dos seguintes:
createVectorStoreFileRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. |
Não | |
| file_id | cadeia (de caracteres) | Um ID de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. |
Sim |
listaVectorArmazenarFicheirosResposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Sim | ||
| first_id | cadeia (de caracteres) | Sim | ||
| has_more | Booleano | Sim | ||
| last_id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
deleteVectorStoreFileResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| apagado | Booleano | Sim | ||
| id | cadeia (de caracteres) | Sim | ||
| objecto | cadeia (de caracteres) | Sim |
objeto Enum: DeleteVectorStoreFileResponseObject
| Valor | Descrição |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Um lote de ficheiros ligados a um armazenamento vetorial.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| created_at | número inteiro | O timestamp Unix (em segundos) para quando os ficheiros de armazenamento vetorial foram criados em lote. | Sim | |
| file_counts | objecto | Sim | ||
| └─ cancelado | número inteiro | O número de ficheiros que foram cancelados. | Não | |
| └─ concluído | número inteiro | O número de ficheiros que foram processados. | Não | |
| └─ falhou | número inteiro | O número de ficheiros que não foram processados. | Não | |
| └─ in_progress | número inteiro | O número de ficheiros que estão atualmente a ser processados. | Não | |
| └─ total | número inteiro | O número total de ficheiros. | Não | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado nos endpoints da API. | Sim | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre vector_store.file_batch. |
Sim | |
| estado | cadeia (de caracteres) | O estado dos ficheiros de armazenamento vetorial em lote, que pode ser , in_progresscompleted, cancelled ou failed. |
Sim | |
| vector_store_id | cadeia (de caracteres) | O ID da loja vetorial onde o ficheiro está ligado. | Sim |
objeto Enum: VectorStoreFileBatchObjectType
| Valor | Descrição |
|---|---|
| vector_store.ficheiros_batch |
status Enum: VectorStoreFileBatchObjectStatus
| Valor | Descrição |
|---|---|
| in_progress | |
| concluído | |
| cancelado | |
| Falhou |
createVectorStoreFileBatchRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) ficheiro(s). Se não estiver definido, vou usar a auto estratégia. |
Não | |
| file_ids | matriz | Uma lista de IDs de ficheiro que a loja vetorial deve usar. Útil para ferramentas que file_search permitem aceder a ficheiros. |
Sim |
assistenteStreamEvent
Representa um evento emitido ao transmitir uma Run.
Cada evento num fluxo de eventos enviado pelo servidor tem uma event propriedade e:data
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está a ser transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução termina, e assim sucessivamente. Quando um Assistente escolhe criar uma mensagem durante uma execução, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.
Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos gerir eventos desconhecidos de forma elegante no seu código.
Este componente pode ser um dos seguintes:
EventoThreadStream
Este componente pode ser um dos seguintes:
thread.created
Ocorre quando é criado um novo thread.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | threadObject | Representa um fio que contém mensagens. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: threadObject
Event Enum: ThreadStreamEventEnum
| Valor | Descrição |
|---|---|
| thread.created | O evento criado pelo fio |
runStreamEvent
Este componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova sequência é criada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Event Enum: RunStreamEventCreated
| Valor | Descrição |
|---|---|
| thread.run.created |
thread.run.queued
Ocorre quando uma sequência passa para um queued estado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Event Enum: RunStreamEventQueued
| Valor | Descrição |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ocorre quando uma sequência passa para um in_progress estado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Event Enum: RunStreamEventInProgress
| Valor | Descrição |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma sequência passa para um requires_action estado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Event Enum: RunStreamEventNecessitesAction
| Valor | Descrição |
|---|---|
| thread.run.requires_action |
thread.run.completed
Ocorre quando uma corrida é concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Evento Enum: RunStreamEventConcluído
| Valor | Descrição |
|---|---|
| thread.run.completed |
thread.run.failed
Ocorre quando uma corrida falha.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Evento Enum: RunStreamEventFailed
| Valor | Descrição |
|---|---|
| thread.run.failed |
thread.run.cancelling
Ocorre quando uma sequência passa para um cancelling estado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Evento Enum: RunStreamEventCancelling
| Valor | Descrição |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma corrida é cancelada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Evento Enum: RunStreamEventCancelled
| Valor | Descrição |
|---|---|
| thread.run.cancelled |
thread.run.expired
Ocorre quando uma corrida termina.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em threads. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runObject
Evento Enum: RunStreamEventExpired
| Valor | Descrição |
|---|---|
| thread.run.expired |
runStepStreamEvent
Este componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando é criado um passo de corrida.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepObject
Evento Enum: RunStepStreamEventCreated
| Valor | Descrição |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Ocorre quando um passo de corrida passa para um in_progress estado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepObject
Evento Enum: RunStepStreamEventInProgress
| Valor | Descrição |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de um passo de corrida estão a ser transmitidas em streaming.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepDeltaObject | Representa um delta de run step, ou seja, quaisquer campos alterados num run step durante o streaming. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepDeltaObject
Event Enum: RunStepStreamEventDelta
| Valor | Descrição |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ocorre quando um passo de corrida é concluído.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepObject
Evento Enum: RunStepStreamEventConcluído
| Valor | Descrição |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ocorre quando um passo de corrida falha.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepObject
Evento Enum: RunStepStreamEventFailed
| Valor | Descrição |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando um passo de corrida é cancelado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepObject
Evento Enum: RunStepStreamEventCancelled
| Valor | Descrição |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando um passo de corrida expira.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: runStepObject
Evento Enum: RunStepStreamEventExpired
| Valor | Descrição |
|---|---|
| thread.run.step.expired |
MessageStreamEvent
Este componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: messageObject
Event Enum: MessageStreamEventCreated
| Valor | Descrição |
|---|---|
| thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem passa para um in_progress estado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: messageObject
Event Enum: MessageStreamEventInProgress
| Valor | Descrição |
|---|---|
| thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão a ser transmitidas em streaming.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | messageDeltaObject | Representa um delta de mensagem, ou seja, quaisquer campos alterados numa mensagem durante o streaming. |
Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: messageDeltaObject
Event Enum: MessageStreamEventDelta
| Valor | Descrição |
|---|---|
| thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: messageObject
Event Enum: MessageStreamEventCompleted
| Valor | Descrição |
|---|---|
| thread.message.completed |
thread.message.incomplete
Ocorre quando uma mensagem termina antes de ser concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Sim | |
| evento | cadeia (de caracteres) | Sim |
Data: messageObject
Event Enum: MessageStreamEventIncomplete
| Valor | Descrição |
|---|---|
| thread.message.incomplete |
Anotação
Este componente pode ser um dos seguintes:
Clique
Uma ação de clique.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| botão | enumeração | Indica qual botão do rato foi pressionado durante o clique. Uma de left, right, wheel, back, ou forward.Valores possíveis: left, right, wheel, back, forward |
Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, esta propriedade é sempre definida para click.Valores possíveis: click |
Sim | |
| x | número inteiro | A coordenada x onde ocorreu o clique. |
Sim | |
| y | número inteiro | A coordenada y onde ocorreu o clique. |
Sim |
CodeInterpreterFileFileOutput
A saída de uma ferramenta de interpretação de código chama que é um ficheiro.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| ficheiros | matriz | Sim | ||
| tipo | enumeração | O tipo de saída do ficheiro do interpretador de código. Sempre files.Valores possíveis: files |
Sim |
CodeInterpreterTextOutput
A saída de uma ferramenta interpretadora de código chamada que é texto.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| registos | cadeia (de caracteres) | Os registos da ferramenta de interpretação de código chamam. |
Sim | |
| tipo | enumeração | O tipo de saída do texto do interpretador de código. Sempre logs.Valores possíveis: logs |
Sim |
CodeInterpreterTool
Uma ferramenta que executa código.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_ids | matriz | Os IDs dos ficheiros para executar o código. |
Sim | |
| tipo | enumeração | O tipo da ferramenta interpretadora de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Sim |
CodeInterpreterToolCall
Uma chamada de ferramenta para executar código.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O código a executar. |
Sim | |
| id | cadeia (de caracteres) | O ID único da ferramenta de interpretação de código chama. |
Sim | |
| Resultados | matriz | Os resultados da chamada de ferramenta do interpretador de código. |
Sim | |
| estado | enumeração | O estado da ferramenta de interpretação de código chamada. Valores possíveis: in_progress, interpreting, completed |
Sim | |
| tipo | enumeração | O tipo que a ferramenta interpretadora de código chama. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Sim |
CodeInterpreterToolOutput
Este componente pode ser um dos seguintes:
FilterComparisonFilter
Um filtro usado para comparar uma chave de atributos especificada a um dado valor usando uma operação de comparação definida.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| chave | cadeia (de caracteres) | A chave para comparar com o valor. | Sim | |
| tipo | enumeração | Especifica o operador de comparação: eq, ne, gt, gte, lt, lte.- eq: igual a- ne: não é igual- gt: maior que- gte: maior ou igual- lt: menos que- lte: menor ou igualValores possíveis: eq, ne, gt, gte, lt, lte |
Sim | |
| Valor | string ou número ou booleano | O valor a comparar com a chave de atributos; suporta tipos de string, número ou booleanos. | Sim |
CompoundFilter
Combine múltiplos filtros usando and ou or.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Filtros | matriz | Conjunto de filtros para combinar. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Sim | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Sim |
ComputerAction
Este componente pode ser um dos seguintes:
ImagemDeCaptura de Ecrã do Computador
Uma imagem de captura de ecrã de computador usada com a ferramenta de uso do computador.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_id | cadeia (de caracteres) | O identificador de um ficheiro carregado que contém a captura de ecrã. | Não | |
| image_url | cadeia (de caracteres) | A URL da imagem de ecrã. | Não | |
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de ecrã de computador, esta propriedade está sempre definida como computer_screenshot.Valores possíveis: computer_screenshot |
Sim |
ComputerTool
Uma ferramenta que controla um computador virtual.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| display_height | Número | A altura do ecrã do computador. |
Sim | |
| display_width | Número | A largura do ecrã do computador. |
Sim | |
| ambiente | enumeração | O tipo de ambiente informático a controlar. Valores possíveis: mac, windows, ubuntu, browser |
Sim | |
| tipo | enumeração | O tipo de ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer-use-preview |
Sim |
ComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| ação | ComputerAction | Sim | ||
| call_id | cadeia (de caracteres) | Um identificador usado ao responder à chamada de ferramenta com saída. |
Sim | |
| id | cadeia (de caracteres) | O ID único da chamada do computador. | Sim | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada no computador. |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Sim | |
| tipo | enumeração | O tipo de chamada do computador. Sempre computer_call.Valores possíveis: computer_call |
Sim |
ComputerToolCallOutput
A saída de uma chamada de ferramenta informática.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança reportadas pela API que foram reconhecidas pelo programador. |
Não | |
| call_id | cadeia (de caracteres) | O ID da chamada de ferramenta informática que produziu a saída. |
Sim | |
| id | cadeia (de caracteres) | O ID da saída da chamada da ferramenta informática. |
Não | |
| Saída | ImagemDeCaptura de Ecrã do Computador | Uma imagem de captura de ecrã de computador usada com a ferramenta de uso do computador. |
Sim | |
| estado | enumeração | O estado da mensagem introduzida. Um de in_progress, completed, ou incomplete. Preenchido quando os itens de entrada são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo de saída da chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Sim |
ComputerToolCallOutputResource
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança reportadas pela API que foram reconhecidas pelo programador. |
Não | |
| call_id | cadeia (de caracteres) | O ID da chamada de ferramenta informática que produziu a saída. |
Sim | |
| id | cadeia (de caracteres) | O ID único da saída da ferramenta de chamada do computador. |
Sim | |
| Saída | ImagemDeCaptura de Ecrã do Computador | Uma imagem de captura de ecrã de computador usada com a ferramenta de uso do computador. |
Sim | |
| estado | enumeração | O estado da mensagem introduzida. Um de in_progress, completed, ou incomplete. Preenchido quando os itens de entrada são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo de saída da chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Sim |
ComputadorChamadaVerificaçãoSegurança
Uma verificação de segurança pendente para a chamada no computador.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O tipo de verificação de segurança pendente. | Sim | |
| id | cadeia (de caracteres) | A identificação da verificação de segurança pendente. | Sim | |
| mensagem | cadeia (de caracteres) | Detalhes sobre a verificação de segurança pendente. | Sim |
Conteúdo
Conteúdos de entrada e saída multimodais.
Este componente pode ser um dos seguintes:
Coordenadas
Um par de coordenadas x/y, por exemplo, { x: 100, y: 200 }.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| x | número inteiro | A coordenada x. |
Sim | |
| y | número inteiro | A coordenada Y. |
Sim |
CreateModelResponseProperties
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | Metadados | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | Modelo usado para gerar as respostas. | Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a OpenAI a monitorizar e detetar abusos. . |
Não |
createResponse
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| inclui | matriz | {"$ref": "#/components/schemas/includable/description"} | Não | |
| dados introduzidos | String ou array | Entradas de texto, imagem ou ficheiro para o modelo, usadas para gerar uma resposta. | Sim | |
| Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas. |
Não | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio. |
Não | |
| parallel_tool_calls | Booleano | Se permitir que o modelo execute chamadas de ferramenta em paralelo. |
Não | Verdade |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. | Não | |
| Raciocínio | Fundamentação | Opções de configuração para modelos de raciocínio. | Não | |
| armazenar | Booleano | Se deve armazenar a resposta gerada do modelo para recuperação posterior via API. |
Não | Verdade |
| fluxo | Booleano | Se definido como verdadeiro, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. | Não | Falso |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
Não | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam. |
Não | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar. |
Não | |
| Ferramentas | matriz | Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que pode fornecer ao modelo são: - Ferramentas incorporadas |
Não | |
| Truncamento | enumeração | A estratégia de truncamento a usar para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o Resposta para se ajustar à janela de contexto, colocando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.Valores possíveis: auto, disabled |
Não |
DoubleClick
Uma ação de duplo clique.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de duplo clique, esta propriedade está sempre definida como double_click.Valores possíveis: double_click |
Sim | |
| x | número inteiro | A coordenada x onde ocorreu o duplo clique. |
Sim | |
| y | número inteiro | A coordenada y onde ocorreu o duplo clique. |
Sim |
Arrasto
Uma ação de arrasto.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| caminho | matriz | Um conjunto de coordenadas que representam o caminho da ação de arrasto. As coordenadas aparecerão como um array de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrasto, esta propriedade é sempre definida para drag.Valores possíveis: drag |
Sim |
EasyInputMessage
Uma mensagem introduzida no modelo com um papel que indica a instrução seguindo a hierarquia. As instruções dadas com o developer papel ou system têm prioridade sobre as instruções dadas com o user papel. Presume-se que as mensagens com o assistant papel tenham sido geradas pelo modelo em interações anteriores.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | string ou InputMessageContentList | Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta. Pode também conter respostas anteriores de assistentes. |
Sim | |
| função | enumeração | O papel da entrada da mensagem. Um de user, assistant, system, ou developer.Valores possíveis: user, assistant, system, developer |
Sim | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
Não |
FileCitation
Uma citação para um ficheiro.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_id | cadeia (de caracteres) | O ID do ficheiro. |
Sim | |
| indexar | número inteiro | O índice do ficheiro na lista de ficheiros. |
Sim | |
| tipo | enumeração | O tipo da citação do ficheiro. Sempre file_citation.Valores possíveis: file_citation |
Sim |
FilePath
Um caminho para um ficheiro.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_id | cadeia (de caracteres) | O ID do ficheiro. |
Sim | |
| indexar | número inteiro | O índice do ficheiro na lista de ficheiros. |
Sim | |
| tipo | enumeração | O tipo do caminho do ficheiro. Sempre file_path.Valores possíveis: file_path |
Sim |
FileSearchRanker
O ranker a usar para a pesquisa de ficheiros. Se não for especificado, usará o auto classificador.
| Propriedade | Valor |
|---|---|
| Descrição | O ranker a usar para a pesquisa de ficheiros. Se não for especificado, usará o auto classificador. |
| Tipo | cadeia (de caracteres) |
| Valores | autodefault_2024_08_21 |
FicheiroFerramenta de Pesquisa
Uma ferramenta que procura conteúdos relevantes a partir de ficheiros carregados.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Filtros | Filtro de Comparação ou Filtro Composto | Um filtro a aplicar com base nos atributos do ficheiro. | Não | |
| max_num_results | número inteiro | O número máximo de resultados a devolver. Este número deve estar entre 1 e 50, inclusive. |
Não | |
| ranking_options | objecto | Opções de classificação para pesquisa. | Não | |
| └─ Ranker | enumeração | O ranker a usar para a pesquisa de ficheiros. Valores possíveis: auto, default-2024-11-15 |
Não | |
| └─ score_threshold | Número | O limiar de pontuação para a pesquisa de ficheiros, um número entre 0 e 1. Números mais próximos de 1 tentarão devolver apenas os resultados mais relevantes, mas podem devolver menos resultados. |
Não | 0 |
| tipo | enumeração | O tipo da ferramenta de pesquisa de ficheiros. Sempre file_search.Valores possíveis: file_search |
Sim | |
| vector_store_ids | matriz | Os IDs do vetor armazenam-se para pesquisar. |
Sim |
FicheiroSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de ficheiros.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| id | cadeia (de caracteres) | O ID único da ferramenta de pesquisa de ficheiros chama. |
Sim | |
| Consultas | matriz | As consultas usadas para procurar ficheiros. |
Sim | |
| Resultados | matriz | Os resultados da ferramenta de pesquisa de ficheiros chamam. |
Não | |
| estado | enumeração | O estado da ferramenta de pesquisa de ficheiros chama. Um de in_progress, searching, incomplete ou failed,Valores possíveis: in_progress, searching, completed, incomplete, failed |
Sim | |
| tipo | enumeração | O tipo de chamada da ferramenta de pesquisa de ficheiros. Sempre file_search_call.Valores possíveis: file_search_call |
Sim |
FunctionTool
Define uma função no seu próprio código que o modelo pode escolher chamar.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | Uma descrição da função. Usado pelo modelo para determinar se deve ou não chamar a função. |
Não | |
| Nome | cadeia (de caracteres) | O nome da função a chamar. |
Sim | |
| Parâmetros | objecto | Um objeto de esquema JSON que descreve os parâmetros da função. |
Sim | |
| estrito | Booleano | Se deve impor uma validação rigorosa dos parâmetros. Padrão true. |
Sim | |
| tipo | enumeração | O tipo da ferramenta funcional. Sempre function.Valores possíveis: function |
Sim |
FunctionToolCall
Uma chamada de ferramenta para executar uma função.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia (de caracteres) | Uma cadeia JSON dos argumentos para passar à função. |
Sim | |
| call_id | cadeia (de caracteres) | O ID único da chamada de ferramenta de função gerada pelo modelo. |
Sim | |
| id | cadeia (de caracteres) | O ID único da ferramenta de função chama. |
Sim | |
| Nome | cadeia (de caracteres) | O nome da função a executar. |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo de chamada da ferramenta funcional. Sempre function_call.Valores possíveis: function_call |
Sim |
FunctionToolCallOutput
A saída de uma chamada de ferramenta funcional.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| call_id | cadeia (de caracteres) | O ID único da chamada de ferramenta de função gerada pelo modelo. |
Sim | |
| id | cadeia (de caracteres) | O ID único da saída da chamada da ferramenta funcional. Preenchido quando este item é devolvido via API. |
Não | |
| Saída | cadeia (de caracteres) | Uma string JSON da saída da chamada à ferramenta de função. |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo da ferramenta de função chama a saída. Sempre function_call_output.Valores possíveis: function_call_output |
Sim |
FunctionToolCallOutputResource
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| call_id | cadeia (de caracteres) | O ID único da chamada de ferramenta de função gerada pelo modelo. |
Sim | |
| id | cadeia (de caracteres) | O ID único da saída da ferramenta de chamada de função. |
Sim | |
| Saída | cadeia (de caracteres) | Uma string JSON da saída da chamada à ferramenta de função. |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo da ferramenta de função chama a saída. Sempre function_call_output.Valores possíveis: function_call_output |
Sim |
Incluído
Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são:
-
file_search_call.results: Inclua os resultados de pesquisa da chamada da ferramenta de pesquisa de ficheiros. -
message.input_image.image_url: Incluir URLs de imagem da mensagem de entrada. -
computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador.
| Propriedade | Valor |
|---|---|
| Descrição | Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são: - file_search_call.results: Inclua os resultados de pesquisa da chamada da ferramenta de pesquisa de ficheiros.- message.input_image.image_url: Incluir URLs de imagem da mensagem de entrada.- computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador. |
| Tipo | cadeia (de caracteres) |
| Valores | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Uma entrada de áudio para o modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | cadeia (de caracteres) | Dados de áudio codificados em base64. |
Sim | |
| Formato | enumeração | O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav.Valores possíveis: mp3, wav |
Sim | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Sim |
Conteúdo de Entrada
Este componente pode ser um dos seguintes:
Ficheiro de Entrada
Uma entrada de ficheiro para o modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| file_data | cadeia (de caracteres) | O conteúdo do ficheiro a ser enviado para o modelo. |
Não | |
| file_id | cadeia (de caracteres) | O ID do ficheiro a ser enviado para o modelo. |
Não | |
| Nome do ficheiro | cadeia (de caracteres) | O nome do ficheiro a ser enviado ao modelo. |
Não | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Sim |
InputImage
Uma entrada de imagem para o modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Detalhe | enumeração | O nível de detalhe da imagem a enviar ao modelo. Um de high, low, ou auto. Por defeito, é auto.Valores possíveis: high, low, auto |
Sim | |
| file_id | cadeia (de caracteres) | O ID do ficheiro a ser enviado para o modelo. |
Não | |
| image_url | cadeia (de caracteres) | O URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou imagem codificada base64 numa URL de dados. |
Não | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Sim |
InputItem
Este componente pode ser um dos seguintes:
InputMessage
Uma mensagem introduzida no modelo com um papel que indica a instrução seguindo a hierarquia. As instruções dadas com o developer papel ou system têm prioridade sobre as instruções dadas com o user papel.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdos diferentes tipos. |
Sim | |
| função | enumeração | O papel da entrada da mensagem. Um de user, system, ou developer.Valores possíveis: user, system, developer |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre definido para message.Valores possíveis: message |
Não |
InputMessageContentList
Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes tipos de conteúdo.
Nenhuma propriedade definida para este componente.
InputMessageResource
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdos diferentes tipos. |
Sim | |
| id | cadeia (de caracteres) | O ID único da entrada da mensagem. |
Sim | |
| função | enumeração | O papel da entrada da mensagem. Um de user, system, ou developer.Valores possíveis: user, system, developer |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre definido para message.Valores possíveis: message |
Não |
InputText
Uma entrada de texto para o modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O texto introduzido no modelo. |
Sim | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Sim |
Item
Item de conteúdo usado para gerar uma resposta.
Este componente pode ser um dos seguintes:
- InputMessage
- OutputMessage
- FicheiroSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- FundamentoItem
ItemReference
Um identificador interno para um item referenciar.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| id | cadeia (de caracteres) | O ID do item para referência. |
Sim | |
| tipo | enumeração | O tipo de artigo a consultar. Sempre item_reference.Valores possíveis: item_reference |
Sim |
ItemResource
Item de conteúdo usado para gerar uma resposta.
Este componente pode ser um dos seguintes:
- InputMessageResource
- OutputMessage
- FicheiroSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Chaves | matriz | A combinação de teclas que o modelo pede para ser pressionada. Trata-se de um array de cadeias, cada uma representando uma tecla. |
Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de pressionar a tecla, esta propriedade é sempre definida para keypress.Valores possíveis: keypress |
Sim |
Metadados
Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard.
As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres.
Nenhuma propriedade definida para este componente.
ModeloRespostaPropriedades
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| metadados | Metadados | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres. |
Não | |
| modelo | cadeia (de caracteres) | Modelo usado para gerar as respostas. | Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Não | 1 |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Não | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a OpenAI a monitorizar e detetar abusos. . |
Não |
Sai da frente
Uma ação de movimento de rato.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimento, esta propriedade é sempre definida como move.Valores possíveis: move |
Sim | |
| x | número inteiro | A coordenada x para onde se deve mover. |
Sim | |
| y | número inteiro | A coordenada Y para onde se deve mover. |
Sim |
OutputAudio
Uma saída de áudio do modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | cadeia (de caracteres) | Dados de áudio codificados em Base64 do modelo. |
Sim | |
| transcrição | cadeia (de caracteres) | A transcrição dos dados áudio do modelo. |
Sim | |
| tipo | enumeração | O tipo de áudio de saída. Sempre output_audio.Valores possíveis: output_audio |
Sim |
Conteúdo de Saída
Este componente pode ser um dos seguintes:
OutputItem
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| ação | ComputerAction | Sim | ||
| Argumentos | cadeia (de caracteres) | Uma cadeia JSON dos argumentos para passar à função. |
Sim | |
| call_id | cadeia (de caracteres) | Um identificador usado ao responder à chamada de ferramenta com saída. |
Sim | |
| conteúdo | matriz | Raciocínio do conteúdo do texto. |
Sim | |
| id | cadeia (de caracteres) | O identificador único do conteúdo de raciocínio. |
Sim | |
| Nome | cadeia (de caracteres) | O nome da função a executar. |
Sim | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada no computador. |
Sim | |
| Consultas | matriz | As consultas usadas para procurar ficheiros. |
Sim | |
| Resultados | matriz | Os resultados da ferramenta de pesquisa de ficheiros chamam. |
Não | |
| função | enumeração | O papel da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Sim | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Sim |
OutputMessage
Uma mensagem de saída do modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo da mensagem de saída. |
Sim | |
| id | cadeia (de caracteres) | O ID único da mensagem de saída. |
Sim | |
| função | enumeração | O papel da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Sim | |
| estado | enumeração | O estado da mensagem introduzida. Um de in_progress, completed, ou incomplete. Preenchido quando os itens de entrada são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Sim | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: message |
Sim |
OutputText
Uma saída de texto do modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Anotações | matriz | As anotações da saída do texto. |
Sim | |
| enviar SMS | cadeia (de caracteres) | A saída de texto do modelo. |
Sim | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Sim |
RealtimeSessionCreateRequest
Configuração de objetos de sessão em tempo real.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
Não | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada. |
Não | |
| └─ Tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.Valores possíveis: near_field, far_field |
Não | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada, por defeito desligado e pode ser definido para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição corre de forma assíncrona através do endpoint de Transcrições e deve ser tratada como orientação do conteúdo áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição. |
Não | |
| └─ Linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
Não | |
| └─ modelo | cadeia (de caracteres) | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
Não | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia". |
Não | |
| Instruções | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) antecediam as chamadas de modelo. Este campo permite ao cliente orientar o modelo nas respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato das respostas (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento áudio (por exemplo, "fala depressa", "injeta emoção na tua voz", "ri frequentemente"). As instruções não são garantidas de serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Note que o servidor define instruções padrão que serão usadas se este campo não estiver definido e que são visíveis no session.created evento no início da sessão. |
Não | |
| max_response_output_tokens | inteiro ou cadeia | Número máximo de tokens de saída para uma resposta de um único assistente, incluindo chamadas de ferramenta. Fornecer um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um dado modelo. Por defeito, é inf. |
Não | |
| Modalidades | O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"]. |
Não | ||
| modelo | cadeia (de caracteres) | O nome da implantação usada para esta sessão. |
Não | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
Não | |
| Temperatura | Número | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos áudio, recomenda-se vivamente uma temperatura de 0,8 para melhor desempenho. |
Não | 0.8 |
| tool_choice | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
Não | Auto |
| Ferramentas | matriz | Ferramentas (funções) disponíveis para o modelo. | Não | |
| turn_detection | objecto | Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador. O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada. |
Não | |
| └─ create_response | Booleano | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD. |
Não | Verdade |
| └─ Entusiasmo | enumeração | Usado apenas para semantic_vad o modo. A vontade do modelo de responder.
low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
Não | |
| └─ interrupt_response | Booleano | Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD. |
Não | Verdade |
| └─ prefix_padding_ms | número inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms. |
Não | |
| └─ silence_duration_ms | número inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador. |
Não | |
| └─ Limiar | Número | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos. |
Não | |
| └─ Tipo | enumeração | Tipo de deteção de curva. Valores possíveis: server_vad, semantic_vad |
Não | |
| Voz | VoiceIdsShared | Não |
RealtimeSessionCriarResposta
Uma nova configuração de sessão em tempo real, com uma chave efémera. O TTL padrão para as chaves é de um minuto.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| client_secret | objecto | Chave efémera devolvida pela API. | Sim | |
| └─ expires_at | número inteiro | Carimbo temporal para quando o token expira. Atualmente, todos os tokens expiram após um minuto. |
Não | |
| └─ Valor | cadeia (de caracteres) | Chave efémera utilizável em ambientes de cliente para autenticar ligações à API de Tempo Real. Use isto em ambientes do lado do cliente em vez de um token API padrão, que só deve ser usado do lado do servidor. |
Não | |
| input_audio_format | cadeia (de caracteres) | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw. |
Não | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada, por defeito desligado e pode ser definido para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição corre assíncrona através do Whisper e deve ser tratada como orientação aproximada, em vez da representação compreendida pelo modelo. |
Não | |
| └─ modelo | cadeia (de caracteres) | O modelo a usar para transcrição whisper-1 é o único modelo atualmente suportado. |
Não | |
| Instruções | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) antecediam as chamadas de modelo. Este campo permite ao cliente orientar o modelo nas respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato das respostas (por exemplo, "seja extremamente sucinto", "aja de forma amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento áudio (por exemplo, "fala depressa", "injeta emoção na tua voz", "ri frequentemente"). As instruções não são garantidas de serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Note que o servidor define instruções padrão que serão usadas se este campo não estiver definido e que são visíveis no session.created evento no início da sessão. |
Não | |
| max_response_output_tokens | inteiro ou cadeia | Número máximo de tokens de saída para uma resposta de um único assistente, incluindo chamadas de ferramenta. Fornecer um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um dado modelo. Por defeito, é inf. |
Não | |
| Modalidades | O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"]. |
Não | ||
| output_audio_format | cadeia (de caracteres) | O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw. |
Não | |
| Temperatura | Número | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Por defeito é 0,8. |
Não | |
| tool_choice | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
Não | |
| Ferramentas | matriz | Ferramentas (funções) disponíveis para o modelo. | Não | |
| turn_detection | objecto | Configuração para deteção de curvas. Pode ser definido para null desligar. O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador. |
Não | |
| └─ prefix_padding_ms | número inteiro | Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms. |
Não | |
| └─ silence_duration_ms | número inteiro | Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador. |
Não | |
| └─ Limiar | Número | Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos. |
Não | |
| └─ Tipo | cadeia (de caracteres) | Só o tipo de deteção de turno server_vad é atualmente suportado. |
Não | |
| Voz | VoiceIdsShared | Não |
Tempo realTranscriçãoSessãoCriarPedido
Configuração em tempo real de objetos de sessão de transcrição.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| inclui | matriz | O conjunto de itens a incluir na transcrição. Os itens atualmente disponíveis são: - item.input_audio_transcription.logprobs |
Não | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24kHz, ordem de um único canal (mono) e little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
Não | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isto pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão do VAD e da deteção de curvas (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a perceção do áudio de entrada. |
Não | |
| └─ Tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como auscultadores, é far_field para microfones de campo distante, como portáteis ou microfones de sala de conferências.Valores possíveis: near_field, far_field |
Não | |
| input_audio_transcription | objecto | Configuração para transcrição áudio de entrada. O cliente pode, opcionalmente, definir a linguagem e pedir para transcrição, que oferecem orientação adicional ao serviço de transcrição. |
Não | |
| └─ Linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
Não | |
| └─ modelo | enumeração | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
Não | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo "espera palavras relacionadas com tecnologia". |
Não | |
| Modalidades | O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"]. |
Não | ||
| turn_detection | objecto | Configuração para deteção de turnos, ether Server VAD ou Semântic VAD. Isto pode ser definido para null desligar, caso em que o cliente terá de ativar manualmente a resposta do modelo.O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador. O VAD semântico é mais avançado e utiliza um modelo de deteção de curvas (em conjunto com o VAD) para estimar semanticamente se o utilizador terminou de falar, definindo depois dinamicamente um timeout com base nesta probabilidade. Por exemplo, se o áudio do utilizador se esmorecer com uhhm, o modelo terá uma baixa probabilidade de fim de turno e esperará mais tempo para que o utilizador continue a falar. Isto pode ser útil para conversas mais naturais, mas pode ter uma latência mais elevada. |
Não | |
| └─ create_response | Booleano | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de paragem VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
| └─ Entusiasmo | enumeração | Usado apenas para semantic_vad o modo. A vontade do modelo de responder.
low Vai esperar mais tempo que o utilizador continue a falar, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
Não | |
| └─ interrupt_response | Booleano | Se deve ou não interromper automaticamente qualquer resposta em curso com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início VAD. Não disponível para sessões de transcrição. |
Não | Verdade |
| └─ prefix_padding_ms | número inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms. |
Não | |
| └─ silence_duration_ms | número inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador. |
Não | |
| └─ Limiar | Número | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos. |
Não | |
| └─ Tipo | enumeração | Tipo de deteção de curva. Valores possíveis: server_vad, semantic_vad |
Não |
Tempo realTranscriçãoSessãoCriarResposta
Uma nova configuração de sessão de transcrição em tempo real.
Quando uma sessão é criada no servidor através da API REST, o objeto de sessão contém também uma chave efémera. O TTL padrão para as chaves é de um minuto. Esta propriedade não está presente quando uma sessão é atualizada através da API WebSocket.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| client_secret | objecto | Chave efémera devolvida pela API. Só está presente quando a sessão é criada no servidor via API REST. |
Sim | |
| └─ expires_at | número inteiro | Carimbo temporal para quando o token expira. Atualmente, todos os tokens expiram após um minuto. |
Não | |
| └─ Valor | cadeia (de caracteres) | Chave efémera utilizável em ambientes de cliente para autenticar ligações à API de Tempo Real. Use isto em ambientes do lado do cliente em vez de um token API padrão, que só deve ser usado do lado do servidor. |
Não | |
| input_audio_format | cadeia (de caracteres) | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw. |
Não | |
| input_audio_transcription | objecto | Configuração do modelo de transcrição. |
Não | |
| └─ Linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
Não | |
| └─ modelo | enumeração | O modelo a usar para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
Não | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. |
Não | |
| Modalidades | O conjunto de modalidades com que o modelo pode responder. Para desativar o áudio, defina para ["texto"]. |
Não | ||
| turn_detection | objecto | Configuração para deteção de curvas. Pode ser definido para null desligar. O VAD do servidor significa que o modelo deteta o início e o fim da fala com base no volume do áudio e responde no final da fala do utilizador. |
Não | |
| └─ prefix_padding_ms | número inteiro | Quantidade de áudio a incluir antes do VAD detetar a fala (em milissegundos). Por defeito é 300ms. |
Não | |
| └─ silence_duration_ms | número inteiro | Duração do silêncio para detetar a paragem da fala (em milissegundos). Por defeito é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do utilizador. |
Não | |
| └─ Limiar | Número | Limiar de ativação para VAD (0.0 a 1.0), este é por defeito 0.5. Um limiar mais elevado exigirá um áudio mais alto para ativar o modelo, podendo assim ter melhor desempenho em ambientes ruidosos. |
Não | |
| └─ Tipo | cadeia (de caracteres) | Só o tipo de deteção de turno server_vad é atualmente suportado. |
Não |
Fundamentação
Opções de configuração para modelos de raciocínio.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| esforço | ReasoningEffort | Limita o esforço de raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta. |
Sim | meio |
| resumo | enumeração | Um resumo do raciocínio realizado pelo modelo. Isto pode ser útil para depurar e compreender o processo de raciocínio do modelo. Um de concise ou detailed.Valores possíveis: concise, detailed |
Não |
FundamentoItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| conteúdo | matriz | Raciocínio do conteúdo do texto. |
Sim | |
| id | cadeia (de caracteres) | O identificador único do conteúdo de raciocínio. |
Sim | |
| estado | enumeração | O estado do item. Um de in_progress, completed, ou incomplete. Preenche quando os itens são devolvidos via API.Valores possíveis: in_progress, completed, incomplete |
Não | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Sim |
Recusa
Uma recusa da modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Recusa | cadeia (de caracteres) | A explicação da recusa do modelo. |
Sim | |
| tipo | enumeração | O tipo de recusa. Sempre refusal.Valores possíveis: refusal |
Sim |
Resposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| created_at | Número | Carimbo temporal do Unix (em segundos) de quando esta resposta foi criada. |
Sim | |
| erro | ResponseError | Um objeto de erro devolvido quando o modelo falha em gerar uma Resposta. |
Sim | |
| id | cadeia (de caracteres) | Identificador único para esta Resposta. |
Sim | |
| incomplete_details | objecto | Detalhes sobre porque é que a resposta está incompleta. |
Sim | |
| └─ Razão | enumeração | A razão pela qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
Não | |
| Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas. |
Sim | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
Não | |
| metadados | Metadados | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres. |
Sim | |
| modelo | cadeia (de caracteres) | Modelo usado para gerar as respostas. | Sim | |
| objecto | enumeração | O tipo de objeto deste recurso - sempre definido para response.Valores possíveis: response |
Sim | |
| Saída | matriz | Uma variedade de conteúdos gerados pelo modelo. - O comprimento e a ordem dos itens no output array dependem da resposta do modelo.- Em vez de aceder ao primeiro item do output array e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, pode considerar usar a output_text propriedade onde suportada nos SDKs. |
Sim | |
| output_text | cadeia (de caracteres) | Propriedade de conveniência apenas SDK que contém o texto agregado de saída de todos os output_text itens do output array, se houver algum. Suportado nos SDKs de Python e JavaScript. |
Não | |
| parallel_tool_calls | Booleano | Se permitir que o modelo execute chamadas de ferramenta em paralelo. |
Sim | Verdade |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. | Não | |
| Raciocínio | Fundamentação | Opções de configuração para modelos de raciocínio. |
Não | |
| estado | enumeração | O estado da geração de resposta. Um de completed, failed, in_progress, ou incomplete.Valores possíveis: completed, failed, in_progress, incomplete |
Não | |
| Temperatura | Número | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
Sim | 1 |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
Não | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam. |
Não | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar. |
Sim | |
| Ferramentas | matriz | Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que pode fornecer ao modelo são: - Ferramentas incorporadas |
Sim | |
| top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
Sim | 1 |
| Truncamento | enumeração | A estratégia de truncamento a usar para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, eliminando itens de entrada a meio da conversa. - disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.Valores possíveis: auto, disabled |
Não | |
| utilização | ResponseUsage | Representa detalhes de utilização dos tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados. |
Não | |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a OpenAI a monitorizar e detetar abusos. . |
Não |
ResponseAudioDeltaEvent
Emitido quando há uma resposta parcial de áudio.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Delta | cadeia (de caracteres) | Um bloco de bytes de resposta codificada em Base64. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.delta.Valores possíveis: response.audio.delta |
Sim |
RespostaÁudioFeitoEvento
Emitido quando a resposta áudio está completa.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.done.Valores possíveis: response.audio.done |
Sim |
RespostaTranscriçãoÁudioDeltaEvento
Emitido quando existe uma transcrição parcial do áudio.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Delta | cadeia (de caracteres) | A transcrição parcial da resposta áudio. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.delta.Valores possíveis: response.audio.transcript.delta |
Sim |
RespostaÁudioTranscriçãoFeitoEvento
Emitido quando a transcrição áudio completa está concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.done.Valores possíveis: response.audio.transcript.done |
Sim |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um excerto parcial de código é adicionado pelo interpretador de código.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Delta | cadeia (de caracteres) | O excerto parcial de código adicionado pelo interpretador de código. |
Sim | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em progresso. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.delta.Valores possíveis: response.code_interpreter_call.code.delta |
Sim |
ResponseCodeInterpreterCallCodeDoneEvent
Emitido quando a saída do excerto de código é finalizada pelo interpretador de código.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O excerto final de código produzido pelo interpretador de código. |
Sim | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em progresso. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.done.Valores possíveis: response.code_interpreter_call.code.done |
Sim |
ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada ao interpretador de código é concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em progresso. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.completed.Valores possíveis: response.code_interpreter_call.completed |
Sim |
ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em curso.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em progresso. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Sim |
ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está a interpretar ativamente o fragmento de código.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em progresso. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Sim |
EventoRespostaConcluídaT
Emitido quando a resposta do modelo está concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Resposta | Resposta | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.completed.Valores possíveis: response.completed |
Sim |
RespostaConteúdoParteAdicionadaEvento
Emitido quando uma nova parte de conteúdo é adicionada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte de conteúdo que foi adicionada. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
| output_index | número inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
| parte | Conteúdo de Saída | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Sim |
RespostaConteúdoParteFeitoEvento
Emitido quando uma parte de conteúdo é concluída.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte do conteúdo que é feita. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
| output_index | número inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Sim | |
| parte | Conteúdo de Saída | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.done.Valores possíveis: response.content_part.done |
Sim |
RespostaCriadoEvento
Um evento que é emitido quando uma resposta é criada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Resposta | Resposta | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.created.Valores possíveis: response.created |
Sim |
ResponseError
Um objeto de erro devolvido quando o modelo falha em gerar uma Resposta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | ResponseErrorCode | O código de erro da resposta. |
Sim | |
| mensagem | cadeia (de caracteres) | Uma descrição legível para humanos do erro. |
Sim |
ResponseErrorCode
O código de erro da resposta.
| Propriedade | Valor |
|---|---|
| Descrição | O código de erro da resposta. |
| Tipo | cadeia (de caracteres) |
| Valores | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
RespostaErroEventoResposta
Emitido quando ocorre um erro.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O código de erro. |
Sim | |
| mensagem | cadeia (de caracteres) | A mensagem de erro. |
Sim | |
| Param | cadeia (de caracteres) | O parâmetro de erro. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre error.Valores possíveis: error |
Sim |
RespostaFalhadaEvento
Um evento que é emitido quando uma resposta falha.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Resposta | Resposta | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.failed.Valores possíveis: response.failed |
Sim |
RespostaFicheiroPesquisaChamadaEventoConcluído
Emitido quando uma chamada de pesquisa de ficheiro é concluída (resultados encontrados).
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| item_id | cadeia (de caracteres) | O ID do item de saída que a pesquisa de ficheiro é iniciado. |
Sim | |
| output_index | número inteiro | O índice do item de saída que a pesquisa de ficheiro é iniciado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.completed.Valores possíveis: response.file_search_call.completed |
Sim |
RespostaFicheiroPesquisaChamadaEmProgressoEvento
Emitido quando uma chamada de pesquisa de ficheiro é iniciada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| item_id | cadeia (de caracteres) | O ID do item de saída que a pesquisa de ficheiro é iniciado. |
Sim | |
| output_index | número inteiro | O índice do item de saída que a pesquisa de ficheiro é iniciado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Sim |
RespostaFicheiroPesquisaChamadaEventoDePesquisa
Emitido quando uma pesquisa de ficheiros está atualmente a ser pesquisada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| item_id | cadeia (de caracteres) | O ID do item de saída que a pesquisa de ficheiro é iniciado. |
Sim | |
| output_index | número inteiro | O índice do item de saída que a pesquisa de ficheiro chama está a pesquisar. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Sim |
RespostaFunçãoChamadaArgumentosDeltaEvento
Emitido quando existe um delta parcial de argumentos de chamada de função.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Delta | cadeia (de caracteres) | Os argumentos de chamada de função delta que são adicionados. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída ao qual o delta dos argumentos da chamada de função é adicionado. |
Sim | |
| output_index | número inteiro | O índice do item de saída ao qual o delta dos argumentos da chamada de função é somado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Sim |
RespostaFunçãoChamarArgumentosFeitoEventoFeito
Emitido quando os argumentos de chamada de função são finalizados.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia (de caracteres) | Os argumentos da chamada de funções. | Sim | |
| item_id | cadeia (de caracteres) | A identificação do item. | Sim | |
| output_index | número inteiro | O índice do item de saída. | Sim | |
| tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Sim |
ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Resposta | Resposta | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Sim |
RespostaIncompletoEvento
Um evento que é emitido quando uma resposta termina como incompleta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Resposta | Resposta | Sim | ||
| tipo | enumeração | O tipo de evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Sim |
responseItemList
Uma lista de itens de Resposta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Uma lista dos itens usados para gerar esta resposta. | Sim | |
| first_id | cadeia (de caracteres) | O ID do primeiro item da lista. | Sim | |
| has_more | Booleano | Se há mais artigos disponíveis. | Sim | |
| last_id | cadeia (de caracteres) | O ID do último item da lista. | Sim | |
| objecto | enumeração | O tipo de objeto devolvido deve ser list.Valores possíveis: list |
Sim |
Modalidades de Resposta
Tipos de saída que gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que este modelo gere tanto respostas de texto como áudio, pode usar:
["text", "audio"]
Nenhuma propriedade definida para este componente.
RespostaModalidadesApenas Texto
Tipos de saída que gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
Esta API irá em breve suportar outras modalidades de saída, incluindo áudio e imagens.
Nenhuma propriedade definida para este componente.
RespostaSaídaItemAdicionadoEvento
Emitido quando um novo item de saída é adicionado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| item | OutputItem | Sim | ||
| output_index | número inteiro | O índice do item de saída que foi adicionado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Sim |
ResponseOutputItemDoneEvent
Emitido quando um item de saída é marcado como concluído.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| item | OutputItem | Sim | ||
| output_index | número inteiro | O índice do item de saída que foi marcado como feito. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.done.Valores possíveis: response.output_item.done |
Sim |
Propriedades de Resposta
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Instruções | cadeia (de caracteres) | Insere uma mensagem do sistema (ou do desenvolvedor) como o primeiro elemento no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a resposta seguinte. Isto facilita a troca de mensagens do sistema (ou do programador) em novas respostas. |
Não | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
Não | |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior ao modelo. Usa isto para criar conversas com vários turnos. | Não | |
| Raciocínio | Fundamentação | Opções de configuração para modelos de raciocínio. |
Não | |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
Não | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } ativa o Structured Outputs, que garante que o modelo corresponde ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam. |
Não | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposEscolhaFerramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve escolher qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar que ferramentas o modelo pode chamar. |
Não | |
| Ferramentas | matriz | Um conjunto de ferramentas que o modelo pode invocar enquanto gera uma resposta. Podes especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que pode fornecer ao modelo são: - Ferramentas incorporadas |
Não | |
| Truncamento | enumeração | A estratégia de truncamento a usar para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, eliminando itens de entrada a meio da conversa. - disabled (padrão): Se uma resposta de modelo exceder o tamanho da janela de contexto para um modelo, o pedido falhará com um erro 400.Valores possíveis: auto, disabled |
Não |
RespostaRecusaDeltaEvento
Emitido quando há um texto de recusa parcial.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte de conteúdo a que o texto de recusa é adicionado. |
Sim | |
| Delta | cadeia (de caracteres) | O texto de recusa que é adicionado. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída ao qual o texto de recusa é adicionado. |
Sim | |
| output_index | número inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Sim |
RespostaRecusaEventoFeito
Emitido quando o texto de recusa é finalizado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_index | número inteiro | O índice do conteúdo da parte onde o texto da recusa está finalizado. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída onde o texto de recusa está finalizado. |
Sim | |
| output_index | número inteiro | O índice do item de saída onde o texto de recusa está finalizado. |
Sim | |
| Recusa | cadeia (de caracteres) | O texto de recusa está finalizado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.done.Valores possíveis: response.refusal.done |
Sim |
responseStreamEvent
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| anotação | Anotação | Sim | ||
| annotation_index | número inteiro | O índice da anotação que foi adicionada. |
Sim | |
| Argumentos | cadeia (de caracteres) | Os argumentos da chamada de funções. | Sim | |
| código | cadeia (de caracteres) | O código de erro. |
Sim | |
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Sim | |
| content_index | número inteiro | O índice do conteúdo, parte onde o conteúdo do texto está finalizado. |
Sim | |
| Delta | cadeia (de caracteres) | A diferença de texto que foi adicionada. |
Sim | |
| item | OutputItem | O item de saída que foi marcado como concluído. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída onde o conteúdo do texto está finalizado. |
Sim | |
| mensagem | cadeia (de caracteres) | A mensagem de erro. |
Sim | |
| output_index | número inteiro | O índice do item de saída onde o conteúdo do texto está finalizado. |
Sim | |
| Param | cadeia (de caracteres) | O parâmetro de erro. |
Sim | |
| parte | Conteúdo de Saída | A parte do conteúdo que está feita. |
Sim | |
| Recusa | cadeia (de caracteres) | O texto de recusa está finalizado. |
Sim | |
| Resposta | Resposta | A resposta que estava incompleta. |
Sim | |
| enviar SMS | cadeia (de caracteres) | O conteúdo do texto que é finalizado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Sim |
ResponseTextAnnotationDeltaEvent
Emitido quando uma anotação de texto é adicionada.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| anotação | Anotação | Sim | ||
| annotation_index | número inteiro | O índice da anotação que foi adicionada. |
Sim | |
| content_index | número inteiro | O índice da parte de conteúdo a que a anotação de texto foi adicionada. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída ao qual a anotação de texto foi adicionada. |
Sim | |
| output_index | número inteiro | O índice do item de saída ao qual a anotação de texto foi adicionada. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.annotation.added.Valores possíveis: response.output_text.annotation.added |
Sim |
TextoDeltaEvento
Emitido quando há um delta adicional de texto.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte de conteúdo a que foi adicionado o delta de texto. |
Sim | |
| Delta | cadeia (de caracteres) | A diferença de texto que foi adicionada. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída ao qual a delta de texto foi adicionada. |
Sim | |
| output_index | número inteiro | O índice do item de saída ao qual a delta de texto foi adicionada. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Sim |
RespostaTextoFeitoEvento
Emitido quando o conteúdo de texto é finalizado.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| content_index | número inteiro | O índice do conteúdo, parte onde o conteúdo do texto está finalizado. |
Sim | |
| item_id | cadeia (de caracteres) | O ID do item de saída onde o conteúdo do texto está finalizado. |
Sim | |
| output_index | número inteiro | O índice do item de saída onde o conteúdo do texto está finalizado. |
Sim | |
| enviar SMS | cadeia (de caracteres) | O conteúdo do texto que é finalizado. |
Sim | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Sim |
ResponseUsage
Representa detalhes de utilização dos tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| input_tokens | número inteiro | O número de tokens de entrada. | Sim | |
| output_tokens | número inteiro | O número de tokens de saída. | Sim | |
| output_tokens_details | objecto | Uma análise detalhada dos tokens de saída. | Sim | |
| └─ reasoning_tokens | número inteiro | O número de fichas de raciocínio. | Não | |
| total_tokens | número inteiro | O número total de fichas usadas. | Sim |
Captura de ecrã
Uma ação de captura de ecrã.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de ecrã, esta propriedade está sempre definida como screenshot.Valores possíveis: screenshot |
Sim |
Pergaminho
Uma ação de pergaminho.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| scroll_x | número inteiro | A distância do scroll horizontal. |
Sim | |
| scroll_y | número inteiro | A distância do scroll vertical. |
Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de scroll, esta propriedade é sempre definida como scroll.Valores possíveis: scroll |
Sim | |
| x | número inteiro | A coordenada x onde ocorreu o scroll. |
Sim | |
| y | número inteiro | A coordenada y onde o scroll ocorreu. |
Sim |
StopConfiguration
Até 4 sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens.
Este componente pode ser um dos seguintes:
TextResponseFormatConfiguration
Um objeto que especifica o formato que o modelo deve gerar.
Configurar { "type": "json_schema" } permite Saídas Estruturadas, que garantem que o modelo corresponde ao seu esquema JSON fornecido.
O formato padrão é { "type": "text" } sem opções adicionais.
Não recomendado para gpt-4o e modelos mais recentes:
Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo é JSON válida. O uso json_schema é preferido para modelos que o suportam.
Este componente pode ser um dos seguintes:
TextResponseFormatJsonSchema
Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Descrição | cadeia (de caracteres) | Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder nesse formato. |
Não | |
| Nome | cadeia (de caracteres) | O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
Não | |
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. | Sim | |
| estrito | Booleano | Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo seguirá sempre o esquema exato definido no schema campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. |
Não | Falso |
| tipo | enumeração | O tipo de formato de resposta que está a ser definido. Sempre json_schema.Valores possíveis: json_schema |
Sim |
Ferramenta
Este componente pode ser um dos seguintes:
FunçãoDeEscolhaFerramenta
Use esta opção para forçar o modelo a chamar uma função específica.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Nome | cadeia (de caracteres) | O nome da função a chamar. | Sim | |
| tipo | enumeração | Para chamadas de funções, o tipo é sempre function.Valores possíveis: function |
Sim |
OpçõesDeEscolhaFerramenta
Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas.
| Propriedade | Valor |
|---|---|
| Descrição | Controla qual (se houver) ferramenta chamada pelo modelo.none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo tem de chamar uma ou mais ferramentas. |
| Tipo | cadeia (de caracteres) |
| Valores | noneautorequired |
TiposEscolhaFerramenta
Indica que o modelo deve usar uma ferramenta incorporada para gerar uma resposta.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta alojada que o modelo deve usar. Os valores permitidos são: - file_search- computer_use_previewValores possíveis: file_search, computer_use_preview |
Sim |
Tipo
Uma ação para escrever texto.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O texto para escrever. |
Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, esta propriedade é sempre definida como type.Valores possíveis: type |
Sim |
UpdateVectorStoreFileAttributesRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Atributos | VectorStoreFileAttributes | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números. |
Sim |
UrlCitation
Uma citação para um recurso web usado para gerar uma resposta de modelo.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| end_index | número inteiro | O índice do último carácter da citação do URL na mensagem. |
Sim | |
| start_index | número inteiro | O índice do primeiro carácter da citação URL na mensagem. |
Sim | |
| Título | cadeia (de caracteres) | O título do recurso web. |
Sim | |
| tipo | enumeração | O tipo da citação do URL. Sempre url_citation.Valores possíveis: url_citation |
Sim | |
| URL | cadeia (de caracteres) | A URL do recurso web. |
Sim |
VectorStoreFileAttributes
Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números.
Nenhuma propriedade definida para este componente.
VectorStoreFileContentResponse
Representa o conteúdo analisado de um ficheiro de armazenamento vetorial.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | Conteúdo analisado do ficheiro. | Sim | |
| has_more | Booleano | Indica se há mais páginas de conteúdo para buscar. | Sim | |
| next_page | cadeia (de caracteres) | O token para a página seguinte, se houver. | Sim | |
| objecto | enumeração | O tipo de objeto, que é sempre vector_store.file_content.pageValores possíveis: vector_store.file_content.page |
Sim |
VectorStoreSearchRequest
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Filtros | Filtro de Comparação ou Filtro Composto | Um filtro a aplicar com base nos atributos do ficheiro. | Não | |
| max_num_results | número inteiro | O número máximo de resultados a devolver. Este número deve estar entre 1 e 50, inclusive. | Não | 10 |
| consulta | String ou array | Uma cadeia de consulta para uma pesquisa | Sim | |
| ranking_options | objecto | Opções de classificação para pesquisa. | Não | |
| └─ Ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
Não | |
| └─ score_threshold | Número | Não | 0 | |
| rewrite_query | Booleano | Se deve reescrever a consulta em linguagem natural para pesquisa vetorial. | Não | Falso |
VectorStoreSearchResultContentObject
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O conteúdo do texto retornou da pesquisa. | Sim | |
| tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Sim |
VectorStoreSearchResultItem
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| Atributos | VectorStoreFileAttributes | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isto pode ser útil para armazenar informação adicional sobre o objeto num formato estruturado e para consultar objetos através da API ou do dashboard. As teclas são cadeias com um comprimento máximo de 64 caracteres. Os valores são cadeias com um comprimento máximo de 512 caracteres, booleanos ou números. |
Sim | |
| conteúdo | matriz | Fragmentos de conteúdo do ficheiro. | Sim | |
| file_id | cadeia (de caracteres) | O ID do ficheiro de armazenamento vetorial. | Sim | |
| Nome do ficheiro | cadeia (de caracteres) | O nome do ficheiro de armazenamento vetorial. | Sim | |
| classificação | Número | A pontuação de semelhança para o resultado. | Sim |
VectorStoreSearchResultsPágina
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | matriz | A lista de itens de resultados de pesquisa. | Sim | |
| has_more | Booleano | Indica se há mais resultados para buscar. | Sim | |
| next_page | cadeia (de caracteres) | O token para a página seguinte, se houver. | Sim | |
| objecto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.pageValores possíveis: vector_store.search_results.page |
Sim | |
| search_query | matriz | Sim |
VoiceIdsShared
Nenhuma propriedade definida para este componente.
Espera
Uma ação de espera.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, esta propriedade é sempre definida para wait.Valores possíveis: wait |
Sim |
ReasoningEffort
Limita o esforço de raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta.
| Propriedade | Valor |
|---|---|
| Descrição | Limita o esforço de raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio numa resposta. |
| Tipo | cadeia (de caracteres) |
| Padrão | meio |
| Valores | lowmediumhigh |
erroEvento
Ocorre quando ocorre um erro. Isto pode acontecer devido a um erro interno do servidor ou a um timeout.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | erro | Sim | ||
| evento | cadeia (de caracteres) | Sim |
event Enum: ErrorEventEnum
| Valor | Descrição |
|---|---|
| erro |
feitoEvento
Ocorre quando um stream termina.
| Nome | Tipo | Descrição | Obrigatório | Padrão |
|---|---|---|---|---|
| dados | cadeia (de caracteres) | Sim | ||
| evento | cadeia (de caracteres) | Sim |
evento Enum: DoneEventEnum
| Valor | Descrição |
|---|---|
| Feito |
data Enum: DoneEventDataEnum
| Valor | Descrição |
|---|---|
| [FEITO] |
Próximos passos
Aprenda sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.