Compartilhar via


Referência de API REST do Serviço OpenAI do Azure

Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.

Especificações da API

O gerenciamento e a interação com modelos e recursos do OpenAI do Azure são divididos em três superfícies principais da API:

  • Painel de controle
  • Plano de dados – criação
  • Plano de dados – inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do OpenAI do Azure. Cada API tem seu próprio conjunto exclusivo de versões de API de versão prévia e estável/disponibilidade geral (GA). Atualmente, lançamentos de versões prévias tendem a seguir uma cadência mensal.

API Lançamento de versão prévia mais recente Versão de GA mais recente Especificações Descrição
Painel de controle 2024-04-01-preview 2023-05-01 Arquivos de especificação O OpenAI do Azure compartilha um painel de controle comum com todos os outros Serviços de IA do Azure. A API do painel de controle é usada para coisas como criação de recursos do OpenAI do Azure, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O painel de controle também controla o que é possível fazer com recursos como Azure Resource Manager, Bicep, Terraform e a CLI do Azure.
Plano de dados – criação 2024-07-01-preview 2024-06-01 Arquivos de especificação A API de criação do plano de dados controla ajuste, upload de arquivos, trabalhos de ingestão, lote e determinadas consultas de nível de modelo
Plano de dados – inferência 2024-07-01-preview 2024-06-01 Arquivos de especificação A API de inferência do plano de dados fornece as capacidades de inferência/pontos de extremidade para recursos como conclusões, conclusões de chat, inserções, fala/sussurro, em seus dados, DALL-E, assistentes, etc.

Autenticação

O OpenAI do Azure fornece dois métodos de autenticação. Você pode usar chaves de API ou o Microsoft Entra ID.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API deverão incluir a Chave de API no cabeçalho HTTP da api-key. O Início Rápido fornece um tutorial de como fazer chamadas com esse tipo de autenticação.

  • Autenticação do Microsoft Entra ID: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o cabeçalho Authorization. O token fornecido deverá ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN. Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.

Controle de versão de API REST

As APIs de serviço são versões que usam o parâmetro de consulta api-version. Todas as versões seguem a estrutura de data AAAA-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a disponibilidade geral mais recente da especificação de inferência do plano de dados do OpenAI do Azure, 2024-06-01.

Se você procura a documentação sobre a versão mais recente da API em versão prévia, consulte a API de inferência do plano de dados em versão prévia mais recente

Preenchimentos

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.

Parâmetros de URI

Nome Em Obrigatório Type Descrição
endpoint caminho Sim string
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com
deployment-id caminho Sim string ID de implantação do modelo do que foi implantado.
api-version consulta Sim string Versão da API

Cabeçalho da solicitação

Nome Obrigatória Type Descrição
api-key True string Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
prompt cadeia de caracteres ou matriz As solicitações para as quais gerar conclusões, codificadas como uma cadeia de caracteres ou uma matriz de cadeia de caracteres.
Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento. O tamanho máximo permitido da lista de cadeias de caracteres é 2048.
Não
max_tokens Número inteiro A contagem de tokens da sua solicitação mais max_tokens não pode exceder o tamanho do contexto do modelo. A maioria dos modelos tem um comprimento de contexto de 2048 tokens (exceto para os modelos mais novos, que dão suporte a 4096). Tem no mínimo 0. Não 16
temperatura número Qual temperatura de amostragem usar. Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem máxima de argumentos) para aqueles com uma resposta bem definida.
Geralmente, é recomendável alterar este ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
Não 1
logit_bias objeto O padrão é nulo. Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. É possível usar essa ferramenta tokenizer (que funciona tanto para GPT-2 quanto para GPT-3) para converter texto em IDs de token. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, é possível passar {"50256":-100} para evitar que o token <|endoftext|> seja gerado. Não
usuário string Um identificador único representando o seu usuário final, que pode ajudar a monitorar e a detectar abusos Não
n Número inteiro Quantas conclusões devem ser geradas para cada prompt. Mínimo de 1 e máximo de 128 permitidos.
Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e de parada.
Não 1
fluxo boolean Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente de dados à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Não Falso
logprobs Número inteiro Inclua as probabilidades de log nos tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob do token de amostra, portanto, poderá haver até elementos logprobs+1 na resposta.
Mínimo de 0 e máximo de 5 permitidos.
Não Nenhum
sufixo string O sufixo que vem após a conclusão do texto inserido. Não
echo boolean Transmite o prompt de volta além da conclusão Não Falso
stop cadeia de caracteres ou matriz Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada. Não
completion_config string Não
presence_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. Não 0
frequency_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. Não 0
best_of Número inteiro Gera conclusões best_of no lado do servidor e retorna a “melhor” (definida como aquela com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.
Quando usado com n, best_of controla o número de conclusões candidatas e n especifica quantos retornar; best_of deve ser maior que n.
Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e de parada. Tem o valor máximo de 128.
Não

Respostas

Nome Tipo Descrição Obrigatório Padrão
ID cadeia de caracteres Sim
objeto string Sim
criado Número inteiro Sim
modelo string Sim
prompt_filter_results promptFilterResults Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. Não
opções matriz Sim
uso objeto Não

Propriedades para uso

completion_tokens

Nome Tipo Descrição Padrão
completion_tokens número
prompt_tokens número
total_tokens número

Código de Status: 200

Descrição: OK

Content-Type Tipo Descrição
application/json objeto

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Inserções

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos de machine learning e algoritmos.

Parâmetros de URI

Nome Em Obrigatório Type Descrição
endpoint caminho Sim string
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com
deployment-id caminho Sim string
api-version consulta Sim string Versão da API

Cabeçalho da solicitação

Nome Obrigatória Type Descrição
api-key True string Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
input cadeia de caracteres ou matriz Insira o texto para o qual obter incorporações codificado como uma cadeia de caracteres. Para obter inserções para várias entradas em uma única solicitação, passe uma matriz de cadeia de caracteres. Cada matriz não deve exceder 2.048 entradas de comprimento.
A menos que esteja incorporando código, é recomendável você substituir as novas linhas (\n) na entrada por um espaço único, pois resultados inferiores foram observados quando haviam novas linhas presentes.
Sim
usuário string Um identificador exclusivo representando o seu usuário final, que pode ajudar a monitorar e a detectar abusos. Não
input_type string tipo de entrada de inserção de pesquisa a ser usada Não
encoding_format string O formato no qual as inserções devem ser retornadas. Pode ser float ou base64. Assume o padrão de float. Não
dimensões Número inteiro O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. Não

Respostas

Nome Tipo Descrição Obrigatório Padrão
objeto string Sim
modelo string Sim
data matriz Sim
uso objeto Sim

Propriedades para uso

prompt_tokens

Nome Tipo Descrição Padrão
prompt_tokens Número inteiro

total_tokens

Nome Tipo Descrição Padrão
total_tokens Número inteiro

Código de Status: 200

Descrição: OK

Content-Type Tipo Descrição
application/json objeto

Exemplos

Exemplo

Retorne as inserções para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Preenchimentos de chat

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

Cria uma conclusão para a mensagem de chat

Parâmetros de URI

Nome Em Obrigatório Type Descrição
endpoint caminho Sim string
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com
deployment-id caminho Sim string ID de implantação do modelo do que foi implantado.
api-version consulta Sim string Versão da API

Cabeçalho da solicitação

Nome Obrigatória Type Descrição
api-key True string Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
temperatura número Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
Não 1
fluxo boolean Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE]. Não Falso
stop cadeia de caracteres ou matriz Até quatro sequências nas quais a API irá parar de gerar tokens. Não
max_tokens Número inteiro O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Não 4096
presence_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. Não 0
frequency_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. Não 0
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Não
usuário string Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. Não
da nuvem para o dispositivo matriz Uma lista de mensagens que resumem a conversa até agora. Exemplo de código Python. Não
data_sources matriz As entradas de configuração para extensões de chat do OpenAI do Azure que as usam.
Essa especificação adicional só é compatível com o OpenAI do Azure.
Não
n Número inteiro Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Não 1
seed Número inteiro Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado. O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. Não 0
logprobs boolean Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content da message. No momento, essa opção não está disponível no modelo gpt-4-vision-preview. Não Falso
top_logprobs Número inteiro Um número inteiro entre 0 e 5 especificando o número de tokens com maior probabilidade de serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. Não
response_format objeto Um objeto que especifica o formato que o modelo deve gerar. Usado para habilitar o modo JSON. Não
manuais matriz Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
tool_choice chatCompletionToolChoiceOption Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma determinada função por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. Não
funções matriz Preterido em favor de tools. Uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
function_call cadeia de caracteres ou objeto Preterido em favor de tool_choice. Controla como o modelo responde às chamadas de função. "none" significa que o modelo não chama uma função e responde ao usuário final. “auto” significa que o modelo pode escolher entre um usuário final ou chamar uma função. Especificar uma determinada função por meio de {"name":\ "my_function"} força o modelo a chamar essa função. “none” é o padrão quando nenhuma função está presente. “auto” é o padrão se as funções estiverem presentes. Não

Propriedades para response_format

Tipo

Nome Tipo Descrição Padrão
tipo chatCompletionResponseFormat Configurar para json_object habilita o modo JSON. Isso garante que a mensagem gerada pelo modelo seja um JSON válido. text

Respostas

Código de Status: 200

Descrição: OK

Content-Type Tipo Descrição
application/json createChatCompletionResponse

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "system",
   "content": "you're a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "you're an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Transcreve o áudio no idioma de entrada.

Parâmetros de URI

Nome Em Obrigatório Type Descrição
endpoint caminho Sim string
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com
deployment-id caminho Sim string ID de implantação do modelo de sussurro.
api-version consulta Sim string Versão da API

Cabeçalho da solicitação

Nome Obrigatória Type Descrição
api-key True string Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Nome Tipo Descrição Obrigatório Padrão
arquivo string O objeto do arquivo de áudio a transcrever. Sim
prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. Não 0
linguagem string O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a exatidão e a latência. Não

Respostas

Código de Status: 200

Descrição: OK

Content-Type Tipo Descrição
application/json audioResponse ou audioVerboseResponse
text/plain string Texto transcrito no formato de saída (quando response_format foi um de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Respostas: Código de Status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Translations

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

Transcreve e traduz o áudio de entrada em texto em inglês.

Parâmetros de URI

Nome Em Obrigatório Type Descrição
endpoint caminho Sim string
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com
deployment-id caminho Sim string ID de implantação do modelo de sussurro que foi implantado.
api-version consulta Sim string Versão da API

Cabeçalho da solicitação

Nome Obrigatória Type Descrição
api-key True string Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Nome Tipo Descrição Obrigatório Padrão
arquivo string O arquivo de áudio a ser traduzido. Sim
prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. Não 0

Respostas

Código de Status: 200

Descrição: OK

Content-Type Tipo Descrição
application/json audioResponse ou audioVerboseResponse
text/plain string Texto transcrito no formato de saída (quando response_format foi um de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Geração de imagem

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

Gera um lote de imagens de uma legenda de texto em uma determinada implantação de modelo do DALLE

Parâmetros de URI

Nome Em Obrigatório Type Descrição
endpoint caminho Sim string
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com
deployment-id caminho Sim string ID de implantação do modelo do dall-e que foi implantado.
api-version consulta Sim string Versão da API

Cabeçalho da solicitação

Nome Obrigatória Type Descrição
api-key True string Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Padrão
prompt string Uma descrição de texto das imagens desejadas. O tamanho máximo é de 4.000 caracteres. Sim
n Número inteiro O número de imagens a serem geradas. Não 1
tamanho imageSize O tamanho das imagens geradas. Não 1\.024 x 1.024
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Não url
usuário string Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. Não
qualidade imageQuality A qualidade da imagem que será gerada. Não padrão
style imageStyle O estilo das imagens geradas. Não vívido

Respostas

Código de Status: 200

Descrição: Ok

Content-Type Tipo Descrição
application/json generateImagesResponse

Código de Status: padrão

Descrição: ocorreu um erro.

Content-Type Tipo Descrição
application/json dalleErrorResponse

Exemplos

Exemplo

Cria imagens a partir de uma solicitação.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de Status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Componentes

errorResponse

Nome Tipo Descrição Obrigatório Padrão
erro error Não

errorBase

Nome Tipo Descrição Obrigatório Padrão
código cadeia de caracteres No
message string Não

Erro

Nome Tipo Descrição Obrigatório Padrão
param string Não
type string Não
inner_error innerError Erro interno com detalhes adicionais. Não

innerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Padrão
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. Não

innerErrorCode

Códigos de erro para o objeto de erro interno.

Descrição: códigos de erro para o objeto de erro interno.

Tipo: string

Padrão:

Nome da Enumeração: InnerErrorCode

Valores da Enumeração:

Valor Descrição
ResponsibleAIPolicyViolation A solicitação violou uma ou mais regras de filtro de conteúdo.

dalleErrorResponse

Nome Tipo Descrição Obrigatório Padrão
error dalleError Não

dalleError

Nome Tipo Descrição Obrigatório Padrão
param string Não
type string Não
inner_error dalleInnerError Erro interno com detalhes adicionais. Não

dalleInnerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Padrão
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. Não
revised_prompt string A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. Não

contentFilterResultBase

Nome Tipo Descrição Obrigatório Padrão
filtrado boolean Sim

contentFilterSeverityResult

Nome Tipo Descrição Obrigatório Padrão
filtrado boolean Sim
severidade string Não

contentFilterDetectedResult

Nome Tipo Descrição Obrigatório Padrão
filtrado boolean Sim
detectado boolean Não

contentFilterDetectedWithCitationResult

Nome Tipo Descrição Obrigatório Padrão
citação objeto Não

Propriedades para citação

URL

Nome Tipo Descrição Padrão
URL string

Licença

Nome Tipo Descrição Padrão
license string

contentFilterResultsBase

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Obrigatório Padrão
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
conteúdo ofensivo contentFilterDetectedResult Não
error errorBase Não

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.

Nome Tipo Descrição Obrigatório Padrão
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
conteúdo ofensivo contentFilterDetectedResult Não
error errorBase Não
jailbreak contentFilterDetectedResult Não

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.

Nome Tipo Descrição Obrigatório Padrão
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
conteúdo ofensivo contentFilterDetectedResult Não
error errorBase Não
protected_material_text contentFilterDetectedResult Não
protected_material_code contentFilterDetectedWithCitationResult Não

promptFilterResult

Resultados de filtragem de conteúdo para uma única solicitação.

Nome Tipo Descrição Obrigatório Padrão
prompt_index Número inteiro Não
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. Não

promptFilterResults

Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.

dalleContentFilterResults

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Obrigatório Padrão
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não

dalleFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.

Nome Tipo Descrição Obrigatório Padrão
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
conteúdo ofensivo contentFilterDetectedResult Não
jailbreak contentFilterDetectedResult Não

chatCompletionsRequestCommon

Nome Tipo Descrição Obrigatório Padrão
temperatura número Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
Não 1
fluxo boolean Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE]. Não Falso
stop cadeia de caracteres ou matriz Até quatro sequências nas quais a API irá parar de gerar tokens. Não
max_tokens Número inteiro O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Não 4096
presence_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. Não 0
frequency_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. Não 0
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Não
usuário string Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. Não

createChatCompletionRequest

Nome Tipo Descrição Obrigatório Padrão
temperatura número Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
Não 1
fluxo boolean Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE]. Não Falso
stop cadeia de caracteres ou matriz Até quatro sequências nas quais a API irá parar de gerar tokens. Não
max_tokens Número inteiro O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Não 4096
presence_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. Não 0
frequency_penalty número Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. Não 0
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Não
usuário string Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. Não
da nuvem para o dispositivo matriz Uma lista de mensagens que resumem a conversa até agora. Exemplo de código Python. Não
data_sources matriz As entradas de configuração para extensões de chat do OpenAI do Azure que as usam.
Essa especificação adicional só é compatível com o OpenAI do Azure.
Não
n Número inteiro Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Não 1
seed Número inteiro Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado. O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. Não 0
logprobs boolean Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content da message. No momento, essa opção não está disponível no modelo gpt-4-vision-preview. Não Falso
top_logprobs Número inteiro Um número inteiro entre 0 e 5 especificando o número de tokens com maior probabilidade de serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. Não
response_format objeto Um objeto que especifica o formato que o modelo deve gerar. Usado para habilitar o modo JSON. Não
manuais matriz Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
tool_choice chatCompletionToolChoiceOption Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma determinada função por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. Não
funções matriz Preterido em favor de tools. Uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
function_call cadeia de caracteres ou objeto Preterido em favor de tool_choice. Controla como o modelo responde às chamadas de função. "none" significa que o modelo não chama uma função e responde ao usuário final. “auto” significa que o modelo pode escolher entre um usuário final ou chamar uma função. Especificar uma determinada função por meio de {"name":\ "my_function"} força o modelo a chamar essa função. “none” é o padrão quando nenhuma função está presente. “auto” é o padrão se as funções estiverem presentes. Não

Propriedades para response_format

Tipo

Nome Tipo Descrição Padrão
tipo chatCompletionResponseFormat Configurar para json_object habilita o modo JSON. Isso garante que a mensagem gerada pelo modelo seja um JSON válido. text

chatCompletionResponseFormat

Configurar para json_object habilita o modo JSON. Isso garante que a mensagem gerada pelo modelo seja um JSON válido.

Descrição: configurar para json_object habilita o modo JSON. Isso garante que a mensagem gerada pelo modelo seja um JSON válido.

Tipo: string

Padrão: texto

Nome da Enumeração: ChatCompletionResponseFormat

Valores da Enumeração:

Valor Descrição
text O formato da resposta é uma cadeia de texto sem formatação.
json_object O formato da resposta é um objeto JSON.

chatCompletionFunction

Nome Tipo Descrição Obrigatório Padrão
name string O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
descrição string A descrição do que a função faz. Não
parâmetros chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Confira a referência de Esquema JSON para obter documentação sobre o formato. Não

chatCompletionFunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Confira a referência de Esquema JSON para obter documentação sobre o formato.

chatCompletionRequestMessage

Nome Tipo Descrição Obrigatório Padrão
role chatCompletionRequestMessageRole A função do autor das mensagens. Sim

chatCompletionRequestMessageRole

A função do autor das mensagens.

Descrição: a função do autor das mensagens.

Tipo: string

Padrão:

Nome da Enumeração: ChatCompletionRequestMessageRole

Valores da Enumeração:

Valor Descrição
sistema A função do autor da mensagem é sistema.
usuário A função do autor da mensagem é usuário.
assistente A função do autor da mensagem é assistente.
ferramenta A função do autor da mensagem é ferramenta.
função Preterido. A função do autor da mensagem é função.

chatCompletionRequestMessageSystem

Nome Tipo Descrição Obrigatório Padrão
role chatCompletionRequestMessageRole A função do autor das mensagens. Sim
content string O conteúdo da mensagem. Não

chatCompletionRequestMessageUser

Nome Tipo Descrição Obrigatório Padrão
role chatCompletionRequestMessageRole A função do autor das mensagens. Sim
content cadeia de caracteres ou matriz Não

chatCompletionRequestMessageContentPart

Nome Tipo Descrição Obrigatório Padrão
tipo chatCompletionRequestMessageContentPartType O tipo da parte de conteúdo. Sim

chatCompletionRequestMessageContentPartType

O tipo da parte de conteúdo.

Descrição: o tipo da parte do conteúdo.

Tipo: string

Padrão:

Nome da Enumeração: ChatCompletionRequestMessageContentPartType

Valores da Enumeração:

Valor Descrição
text O tipo da parte do conteúdo é texto.
image_url O tipo da parte do conteúdo é image_url.

chatCompletionRequestMessageContentPartText

Nome Tipo Descrição Obrigatório Padrão
tipo chatCompletionRequestMessageContentPartType O tipo da parte de conteúdo. Sim
text string O conteúdo do texto. Não

chatCompletionRequestMessageContentPartImage

Nome Tipo Descrição Obrigatório Padrão
tipo chatCompletionRequestMessageContentPartType O tipo da parte de conteúdo. Sim
url string Uma URL da imagem ou os dados de imagem codificados em base64. Não
detail imageDetailLevel Especifica o nível de detalhes da imagem. Não auto

imageDetailLevel

Especifica o nível de detalhes da imagem.

Descrição: especifica o nível de detalhes da imagem.

Tipo: string

Padrão: automático

Nome da Enumeração: ImageDetailLevel

Valores da Enumeração:

Valor Descrição
auto O nível de detalhes da imagem é automático.
low O nível de detalhes da imagem é baixo.
high O nível de detalhes da imagem é alto.

chatCompletionRequestMessageAssistant

Nome Tipo Descrição Obrigatório Padrão
role chatCompletionRequestMessageRole A função do autor das mensagens. Sim
content string O conteúdo da mensagem. Não
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas
na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao
usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.
Não

azureChatExtensionConfiguration

Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.

Nome Tipo Descrição Obrigatório Padrão
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação
de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Sim

azureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.

Descrição: uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação
de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.

Tipo: string

Padrão:

Nome da Enumeração: AzureChatExtensionType

Valores da Enumeração:

Valor Descrição
azure_search Representa o uso do Azure Search como uma extensão de chat do OpenAI do Azure.
azure_cosmos_db Representa o uso do Azure Cosmos DB como uma extensão de chat do OpenAI do Azure.

azureSearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do OpenAI do Azure.

Nome Tipo Descrição Obrigatório Padrão
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação
de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Sim
parâmetros azureSearchChatExtensionParameters Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure. Não

azureSearchChatExtensionParameters

Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure.

Nome Tipo Descrição Obrigatório Padrão
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions Sim
top_n_documents Número inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. Não
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigorosidade Número inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. Não
role_information string Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e como formatar as respostas. Há um limite de 100 tokens para isso, que conta para o limite geral de tokens. Não
endpoint string O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. Sim
index_name string O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search. Sim
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. Não
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. Não
semantic_configuration string A configuração semântica adicional da consulta. Não
filtro string Filtro de pesquisa. Não
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Não

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.

Nome Tipo Descrição Obrigatório Padrão
title_field string O nome do campo de índice a ser utilizado como título. Não
url_field string O nome do campo de índice a ser utilizado como URL. Não
filepath_field string O nome do campo de índice a ser utilizado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Não

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.

Descrição: o tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.

Tipo: string

Padrão:

Nome da Enumeração: azureSearchQueryType

Valores da Enumeração:

Valor Descrição
simple Representa o analisador de consulta simples e padrão.
semântica Representa o analisador de consulta semântica para modelagem semântica avançada.
vector Representa a busca em vetores em relação aos dados computados.
vector_simple_hybrid Representa uma combinação da estratégia de consulta simples com dados de vetor.
vector_semantic_hybrid Representa uma combinação de pesquisa semântica e consulta de dados de vetor.

azureCosmosDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do OpenAI do Azure.

Nome Tipo Descrição Obrigatório Padrão
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação
de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Sim
parâmetros azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o Azure Cosmos DB para
vCore do MongoDB.
Não

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB.

Nome Tipo Descrição Obrigatório Padrão
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. Sim
top_n_documents Número inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. Não
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigorosidade Número inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. Não
role_information string Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e como formatar as respostas. Há um limite de 100 tokens para isso, que conta para o limite geral de tokens. Não
database_name string O nome do banco de dados MongoDB vCore a ser usado com o Azure Cosmos DB. Sim
container_name string O nome do contêiner de recursos do Azure Cosmos DB. Sim
index_name string O nome do índice do MongoDB vCore a ser usado com o Azure Cosmos DB. Sim
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Nome Tipo Descrição Obrigatório Padrão
title_field string O nome do campo de índice a ser utilizado como título. Não
url_field string O nome do campo de índice a ser utilizado como URL. Não
filepath_field string O nome do campo de índice a ser utilizado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Sim

onYourDataAuthenticationOptions

As opções de autenticação do OpenAI do Azure On Your Data.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Sim

onYourDataAuthenticationType

Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.

Descrição: os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.

Tipo: string

Padrão:

Nome da Enumeração: OnYourDataAuthenticationType

Valores da Enumeração:

Valor Descrição
api_key Autenticação por meio da chave de API.
connection_string Autenticação por meio de cadeia de conexão.
system_assigned_managed_identity Autenticação por meio de identidade gerenciada atribuída pelo sistema.
user_assigned_managed_identity Autenticação por meio de identidade gerenciada atribuída pelo usuário.

onYourDataApiKeyAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Sim
chave string A chave de API a ser usada para autenticação. Não

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Sim
connection_string string A cadeia de conexão a ser usada para autenticação. Não

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Sim

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Sim
managed_identity_resource_id string A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. Não

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para o OpenAI do Azure On Your Data com busca em vetores.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a
busca em vetores.
Sim

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.

Descrição: Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a
Busca em vetores.

Tipo: string

Padrão:

Nome da Enumeração: OnYourDataVectorizationSourceType

Valores da Enumeração:

Valor Descrição
endpoint Representa a vetorização executada por chamadas de serviço públicas para um modelo de inserção do OpenAI do Azure.
deployment_name Representa um nome da implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas
O recurso On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, que habilita a busca
em vetores mesmo em redes privadas.

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em um nome de implantação de modelo de inserções interno no mesmo recurso do OpenAI do Azure.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a
busca em vetores.
Sim
deployment_name string Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. Não

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em ponto de extremidade de inserções públicas para o Azure OpenAI.

Nome Tipo Descrição Obrigatório Padrão
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a
busca em vetores.
Sim
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API. Não
endpoint string Especifica o endpoint a ser usado para vetorização. Esse endpoint deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa o endpoint por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. Não

azureChatExtensionsMessageContext

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.

Nome Tipo Descrição Obrigatório Padrão
citações matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. Não
intenção string A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. Não

Citação

Informações de citação para uma mensagem de resposta de conclusões de chat.

Nome Tipo Descrição Obrigatório Padrão
content string O conteúdo da citação. Sim
title string O título da citação. Não
url string A URL da citação. Não
filepath string O caminho do arquivo da citação. Não
chunk_id string A ID da parte da citação. Não

chatCompletionMessageToolCall

Nome Tipo Descrição Obrigatório Padrão
ID string A ID da chamada da ferramenta. Sim
tipo toolCallType O tipo da chamada de ferramenta, nesse caso, function. Sim
função objeto A função chamada pelo modelo. Sim

Propriedades da função

Nome

Nome Tipo Descrição Padrão
name string O nome da função a ser chamada.

Argumentos

Nome Tipo Descrição Padrão
argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função.

toolCallType

O tipo da chamada de ferramenta, nesse caso, function.

Descrição: o tipo da chamada de ferramenta, nesse caso, function.

Tipo: string

Padrão:

Nome da Enumeração: ToolCallType

Valores da Enumeração:

Valor Descrição
função O tipo da chamada de ferramenta é função.

chatCompletionRequestMessageTool

Nome Tipo Descrição Obrigatório Padrão
role chatCompletionRequestMessageRole A função do autor das mensagens. Sim
tool_call_id string Chamada de ferramenta à qual esta mensagem está respondendo. Não
content string O conteúdo da mensagem. Não

chatCompletionRequestMessageFunction

Nome Tipo Descrição Obrigatório Padrão
role enum A função do autor das mensagens, nesse caso, function.
Valores possíveis: função
Sim
nome string O conteúdo da mensagem. Não
content string O conteúdo da mensagem. Não

createChatCompletionResponse

Nome Tipo Descrição Obrigatório Padrão
ID string Identificador exclusivo para conclusão de chat. Sim
objeto chatCompletionResponseObject O tipo de objeto. Sim
criado Número inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Sim
modelo string O modelo usado para a conclusão do chat. Sim
uso completionUsage Estatísticas de uso para a solicitação de preenchimento. Não
system_fingerprint string Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. Não
prompt_filter_results promptFilterResults Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. Não
opções matriz Não

chatCompletionChoiceLogProbs

Informações de probabilidade de log para a escolha.

Nome Tipo Descrição Obrigatório Padrão
content matriz Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. Sim

chatCompletionTokenLogprob

Nome Tipo Descrição Obrigatório Padrão
token string O token. Sim
logprob número A probabilidade de log desse token. Sim
bytes matriz Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token. Sim
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. Sim

chatCompletionResponseMessage

Uma mensagem de conclusão de chat gerada pelo modelo.

Nome Tipo Descrição Obrigatório Padrão
role chatCompletionResponseMessageRole A função do autor da mensagem de resposta. Não
content string O conteúdo da mensagem. Não
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas
na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao
usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.
Não

chatCompletionResponseMessageRole

A função do autor da mensagem de resposta.

Descrição: a função do autor da mensagem de resposta.

Tipo: string

Padrão:

Valores da Enumeração:

  • assistente

chatCompletionToolChoiceOption

Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma determinada função por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.

Esse componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Obrigatório Padrão
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: função
Não
função objeto Não

Propriedades da função

Nome

Nome Tipo Descrição Padrão
name string O nome da função a ser chamada.

chatCompletionFunctionCall

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Nome Tipo Descrição Obrigatório Padrão
name string O nome da função a ser chamada. Sim
argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. Sim

chatCompletionsResponseCommon

Nome Tipo Descrição Obrigatório Padrão
ID string Identificador exclusivo para conclusão de chat. Sim
objeto chatCompletionResponseObject O tipo de objeto. Sim
criado Número inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Sim
modelo string O modelo usado para a conclusão do chat. Sim
uso completionUsage Estatísticas de uso para a solicitação de preenchimento. Não
system_fingerprint string Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. Não

chatCompletionResponseObject

O tipo de objeto.

Descrição: o tipo de objeto.

Tipo: string

Padrão:

Nome da Enumeração: ChatCompletionResponseObject

Valores da Enumeração:

Valor Descrição
chat.completion O tipo de objeto é conclusão do chat.

completionUsage

Estatísticas de uso para a solicitação de preenchimento.

Nome Tipo Descrição Obrigatório Padrão
prompt_tokens Número inteiro Número de tokens no prompt. Sim
completion_tokens Número inteiro Número de tokens na conclusão gerada. Sim
total_tokens Número inteiro Número total de tokens utilizados na solicitação (prompt + conclusão). Sim

chatCompletionTool

Nome Tipo Descrição Obrigatório Padrão
tipo chatCompletionToolType O tipo da ferramenta. Atualmente, há suporte apenas para function. Sim
função objeto Sim

Propriedades da função

Descrição

Nome Tipo Descrição Padrão
descrição string Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função.

Nome

Nome Tipo Descrição Padrão
name string O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64.

Parâmetros

Nome Tipo Descrição Padrão
parâmetros chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Confira a referência de Esquema JSON para obter documentação sobre o formato.

chatCompletionToolType

O tipo da ferramenta. Atualmente, há suporte apenas para function.

Descrição: o tipo da ferramenta. Atualmente, há suporte apenas para function.

Tipo: string

Padrão:

Nome da Enumeração: ChatCompletionToolType

Valores da Enumeração:

Valor Descrição
função O tipo de ferramenta é função.

chatCompletionChoiceCommon

Nome Tipo Descrição Obrigatório Padrão
índice Número inteiro Não
finish_reason string Não

createTranslationRequest

Solicitação de tradução.

Nome Tipo Descrição Obrigatório Padrão
arquivo string O arquivo de áudio a ser traduzido. Sim
prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. Não 0

audioResponse

Resposta de tradução ou transcrição quando response_format foi json

Nome Tipo Descrição Obrigatório Padrão
text string Texto traduzido ou transcrito. Sim

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Nome Tipo Descrição Obrigatório Padrão
text string Texto traduzido ou transcrito. Sim
task string Tipo de tarefa de áudio. Não
linguagem string Idioma. Não
duration número Duração. Não
segmentos matriz Não

audioResponseFormat

Define o formato da saída.

Descrição: define o formato da saída.

Tipo: string

Padrão:

Valores da Enumeração:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Solicitação de transcrição.

Nome Tipo Descrição Obrigatório Padrão
arquivo string O objeto do arquivo de áudio a transcrever. Sim
prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. Não 0
linguagem string O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a exatidão e a latência. Não

audioSegment

Segmento da transcrição ou tradução.

Nome Tipo Descrição Obrigatório Padrão
ID Número inteiro Identificador do segmento. Não
pesquisar número Deslocamento do segmento. Não
iniciar número O deslocamento de início do segmento. Não
end número Deslocamento final do segmento. Não
text string Texto do segmento. Não
tokens matriz Tokens do texto. Não
temperatura número Temperatura. Não
avg_logprob número Probabilidade de log média. Não
compression_ratio número Taxa de compactação. Não
no_speech_prob número Probabilidade de “sem fala”. Não

imageQuality

A qualidade da imagem que será gerada.

Descrição: a qualidade da imagem que será gerada.

Tipo: string

Padrão: padrão

Nome da Enumeração: Qualidade

Valores da Enumeração:

Valor Descrição
padrão A qualidade padrão cria imagens com qualidade padrão.
hd A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem.

imagesResponseFormat

O formato no qual as imagens geradas são retornadas.

Descrição: o formato no qual as imagens geradas são retornadas.

Tipo: string

Padrão: url

Nome da Enumeração: ImagesResponseFormat

Valores da Enumeração:

Valor Descrição
url A URL que fornece acesso temporário para baixar as imagens geradas.
b64_json As imagens geradas são retornadas como cadeia de caracteres codificada em base64.

imageSize

O tamanho das imagens geradas.

Descrição: o tamanho das imagens geradas.

Tipo: string

Padrão: 1024x1024

Nome da Enumeração: Tamanho

Valores da Enumeração:

Valor Descrição
1792x1024 O tamanho desejado da imagem gerada é de 1792 x 1024 pixels.
1024x1792 O tamanho desejado da imagem gerada é de 1024 x 1792 pixels.
1\.024 x 1.024 O tamanho desejado da imagem gerada é de 1024 x 1024 pixels.

imageStyle

O estilo das imagens geradas.

Descrição: o estilo das imagens geradas.

Tipo: string

Padrão: vívido

Nome da Enumeração: Estilo

Valores da Enumeração:

Valor Descrição
vívido Vívido cria imagens hiper-realistas e dramáticas.
natural Natural cria imagens mais naturais e menos hiper-realistas.

imageGenerationsRequest

Nome Tipo Descrição Obrigatório Padrão
prompt string Uma descrição de texto das imagens desejadas. O tamanho máximo é de 4.000 caracteres. Sim
n Número inteiro O número de imagens a serem geradas. Não 1
tamanho imageSize O tamanho das imagens geradas. Não 1\.024 x 1.024
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Não url
usuário string Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. Não
qualidade imageQuality A qualidade da imagem que será gerada. Não padrão
style imageStyle O estilo das imagens geradas. Não vívido

generateImagesResponse

Nome Tipo Descrição Obrigatório Padrão
criado Número inteiro O carimbo de data/hora UNIX quando a operação foi criada. Sim
data matriz Os dados do resultado da operação, se bem-sucedida Sim

imageResult

A URL da imagem ou a imagem codificada, se foi bem-sucedida, e um erro se não foi.

Nome Tipo Descrição Obrigatório Padrão
url string A URL da imagem. Não
b64_json string A imagem codificada em base64 Não
content_filter_results dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. Não
revised_prompt string A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. Não
prompt_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. Não

Extensões de preenchimento

As extensões de conclusão não fazem parte da versão mais recente de GA da especificação de inferência do plano de dados do Azure OpenAI.

Chatmessage

O objeto de mensagem de chat não faz parte da versão de GA mais recente da especificação de inferência do plano de dados do Azure OpenAI.

Texto em fala

Atualmente, não faz parte da versão mais recente do Azure OpenAI de GA da especificação de inferência do plano de dados do Azure OpenAI. Consulte a versão prévia mais recente para essa funcionalidade.

Próximas etapas

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.