Partilhar via


Azure OpenAI na referência da API REST dos modelos do Azure AI Foundry

Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.

Especificações da API

O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:

  • Plano de controlo
  • Plano de dados - criação
  • Plano de dados - inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem o seu próprio conjunto exclusivo de visualizações e de versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.

Importante

Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia de ciclo de vida da API.

API Versão de pré-visualização mais recente Última versão do GA Especificações Descrição
Plano de controlo 2024-06-01-preview 2024-10-01 Arquivos de especificações O Azure OpenAI partilha um plano de controlo comum com todos os outros serviços. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure.
Plano de dados - criação 2025-04-01-preview 2024-10-21 Arquivos de especificações A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão, o lote e determinadas consultas de nível de modelo
Plano de dados - inferência 2025-04-01-preview 2024-10-21 Arquivos de especificações A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, áudio, em seus dados, Dall-e, assistentes, etc.

Autenticação

O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a api-key chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.

  • Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos numa solicitação como cabeçalho Authorization. O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.

Controle de versão da API REST

As APIs de serviço são versionadas através do parâmetro de consulta api-version. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a mais recente versão GA da especificação de inferência do plano de dados do Azure OpenAI, 2024-10-21.

Se estiver à procura de documentação sobre a versão mais recente da API de pré-visualização, consulte a API de inferência do plano de dados de pré-visualização mais recente.

Finalizações

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Cria uma conclusão para o prompt fornecido, os parâmetros e o modelo escolhido.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim cadeia (de caracteres)
URL
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres) ID de implantação do modelo que foi implantado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Nome Obrigatório Tipo Descrição
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
avisar cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Sim
melhor_de número inteiro Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de candidatos concluídos e n especifica quantos devem retornar – best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
eco Booleano Echo de volta o prompt, além da conclusão
Não Falso
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhum
Logprobs número inteiro Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhum
máximo de tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo.
Não 16
n número inteiro Quantas completações gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
sementes número inteiro Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
pare cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens. O texto devolvido não conterá a sequência de paragem.
Não
fluxo Booleano Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor de dados únicos, à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Não Falso
sufixo cadeia (de caracteres) O sufixo que vem após a conclusão do texto inserido.

Este parâmetro só é suportado para gpt-3.5-turbo-instruct.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json createCompletionResponse Representa uma resposta de conclusão da API. Observação: os objetos de resposta em fluxo contínuo e não em fluxo contínuo compartilham a mesma estrutura (ao contrário do endpoint de chat).

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, os parâmetros e o modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporações

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim cadeia (de caracteres)
URL
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres)
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Nome Obrigatório Tipo Descrição
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
dados introduzidos cadeia de caracteres ou matriz Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. Sim
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
tipo_de_entrada cadeia (de caracteres) tipo de entrada de pesquisa de incorporação a ser usada Não
formato de codificação cadeia (de caracteres) O formato para retornar as incorporações. Tanto pode ser float como base64. O padrão é float. Não
dimensões número inteiro O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. Não

Respostas

Nome Tipo Descrição Obrigatório Predefinido
objecto cadeia (de caracteres) Sim
modelo cadeia (de caracteres) Sim
dados matriz Sim
utilização objecto Sim

Propriedades para uso

prompt_tokens

Nome Tipo Descrição Predefinido
prompt_tokens número inteiro

total de tokens

Nome Tipo Descrição Predefinido
total de tokens número inteiro

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objecto

Exemplos

Exemplo

Retorne as incorporações para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Finalizações de chat

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Cria uma conclusão para a mensagem de chat

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim cadeia (de caracteres)
URL
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres) ID de implantação do modelo que foi implantado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Nome Obrigatório Tipo Descrição
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
fluxo Booleano Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos apenas de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não Falso
pare cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens.
Não
máximo de tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
Não
tokens_máximos_de_conclusão número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Não
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.
Não Nenhum
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Sim
fontes_de_dados matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
Logprobs Booleano Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. Não Falso
top_logprobs número inteiro Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
n número inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. Não 1
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
formato_de_resposta ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, garantindo que o modelo corresponderá ao esquema JSON fornecido.

Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
sementes número inteiro Este recurso está em versão Beta.
Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
Ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas.
Não
escolha_de_ferramenta chatCompletionToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. Não
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
Não
funções matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json createChatCompletionResponse ou createChatCompletionStreamResponse

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, os parâmetros e o modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transcreve o áudio para o idioma de entrada.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim cadeia (de caracteres)
URL
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres) ID de implantação do modelo de fala para texto.

Para obter informações sobre modelos suportados, consulte [/azure/ai-services/openai/concepts/models#audio-models].
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Nome Obrigatório Tipo Descrição
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O objeto do arquivo de áudio a ser transcrito. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
linguagem cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json audioResponse ou audioVerboseResponse
texto simples cadeia (de caracteres) Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transcreve e traduz áudio de entrada para texto em inglês.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim cadeia (de caracteres)
URL
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres) ID de implantação do modelo de sussurro que foi implantado.

Para obter informações sobre modelos suportados, consulte [/azure/ai-services/openai/concepts/models#audio-models].
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Nome Obrigatório Tipo Descrição
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O arquivo de áudio a ser traduzido. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json audioResponse ou audioVerboseResponse
texto simples cadeia (de caracteres) Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Geração de imagens

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Gera um lote de imagens a partir de uma legenda de texto numa implementação específica do modelo dall-e.

Parâmetros de URI

Nome Em Obrigatório Tipo Descrição
ponto final caminho Sim cadeia (de caracteres)
URL
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
identificador de implantação caminho Sim cadeia (de caracteres) ID de implantação do modelo dall-e que foi implantado.
Versão da API consulta Sim cadeia (de caracteres) Versão da API

Cabeçalho da solicitação

Nome Obrigatório Tipo Descrição
chave de API Verdade cadeia (de caracteres) Forneça a chave da API do Azure OpenAI aqui

Órgão do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Obrigatório Predefinido
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. Sim
n número inteiro O número de imagens a gerar. Não 1
tamanho imageSize O tamanho das imagens geradas. Não 1024 x 1024
formato_de_resposta imagesResponseFormat O formato em que as imagens geradas são retornadas. Não URL
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não norma
estilo imageStyle O estilo das imagens geradas. Não vívido

Respostas

Código de status: 200

Descrição: Ok

Tipo de conteúdo Tipo Descrição
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Tipo de conteúdo Tipo Descrição
application/json dalleErrorResponse

Exemplos

Exemplo

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Componentes

Resposta de Erro

Nome Tipo Descrição Obrigatório Predefinido
erro erro Não

Base de Dados de Erros

Nome Tipo Descrição Obrigatório Predefinido
código cadeia (de caracteres) Não
mensagem cadeia (de caracteres) Não

erro

Nome Tipo Descrição Obrigatório Predefinido
parâmetro cadeia (de caracteres) Não
tipo cadeia (de caracteres) Não
erro_interno innerError Erro interno com detalhes adicionais. Não

erro interno

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Predefinido
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
resultados_do_filtro_de_conteúdo contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

códigoDeErroInterno

Códigos de erro para o objeto de erro interno.

Descrição: Códigos de erro para o objeto de erro interno.

Tipo: string

Predefinido:

Nome do Enum: InnerErrorCode

Valores de Enum:

Valor Descrição
Violação da Política de IA Responsável O prompt violou uma das mais regras de filtro de conteúdo.

dalleErrorResponse

Nome Tipo Descrição Obrigatório Predefinido
erro dalleError Não

dalleError

Nome Tipo Descrição Obrigatório Predefinido
parâmetro cadeia (de caracteres) Não
tipo cadeia (de caracteres) Não
erro_interno dalleInnerError Erro interno com detalhes adicionais. Não

dalleInnerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Obrigatório Predefinido
código innerErrorCode Códigos de erro para o objeto de erro interno. Não
resultados_do_filtro_de_conteúdo dalleFilterResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não
Proposta de Melhorias: - Certificar-se de que as frases e termos são traduzidos corretamente para refletir o mesmo significado do texto de origem. - Adaptar quaisquer termos em inglês que possam ser traduzidos naturalmente para português, preservando o seu significado. - Corrigir quaisquer questões gramaticais para aumentar a fluência e a legibilidade em português. - Usar a estrutura de frases em português natural para que a tradução soe nativa. - Verificar o uso apropriado de pontuação e registro para o português. cadeia (de caracteres) O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. Não

resultadoBaseFiltroDeConteúdo

Nome Tipo Descrição Obrigatório Predefinido
filtrado Booleano Sim

resultadoDeSeveridadeDoFiltroDeConteúdo

Nome Tipo Descrição Obrigatório Predefinido
filtrado Booleano Sim
gravidade cadeia (de caracteres) Não

resultado de deteção de filtro de conteúdo

Nome Tipo Descrição Obrigatório Predefinido
filtrado Booleano Sim
detetada Booleano Não

Detetado filtro de conteúdo com resultado de citação

Nome Tipo Descrição Obrigatório Predefinido
citação objecto Não

Propriedades para citação

URL

Nome Tipo Descrição Predefinido
URL cadeia (de caracteres)

licença

Nome Tipo Descrição Predefinido
licença cadeia (de caracteres)

baseDeResultadosDoFiltroDeConteúdo

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Obrigatório Predefinido
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
erro Base de erro Não

Resultados de Filtro de Conteúdo

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Obrigatório Predefinido
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
erro Base de erro Não
fuga da prisão resultadoDetetadoDoFiltroDeConteúdo Não

resultadosEscolhaFiltroConteúdo

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Obrigatório Predefinido
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
erro Base de erro Não
texto_material_protegido resultadoDetetadoDoFiltroDeConteúdo Não
código_material_protegido filtroDeConteúdoDetetadoComResultadoDeCitação Não

Resultado do Filtro de Prompt

Resultados da filtragem de conteúdo para um único prompt na solicitação.

Nome Tipo Descrição Obrigatório Predefinido
índice_de_prompt número inteiro Não
resultados_do_filtro_de_conteúdo contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

promptFiltrarResultados

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.

Nenhuma propriedade definida para este componente.

Resultados do Filtro de Conteúdo do Dalle

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Obrigatório Predefinido
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não

DalleFiltroResultados

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Obrigatório Predefinido
sexual resultadoDaGravidadeDoFiltroDeConteúdo Não
violência resultadoDaGravidadeDoFiltroDeConteúdo Não
ódio resultadoDaGravidadeDoFiltroDeConteúdo Não
automutilação resultadoDaGravidadeDoFiltroDeConteúdo Não
palavrões resultadoDetetadoDoFiltroDeConteúdo Não
fuga da prisão resultadoDetetadoDoFiltroDeConteúdo Não

chatConclucoesPedidoComum

Nome Tipo Descrição Obrigatório Predefinido
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
fluxo Booleano Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não Falso
pare cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens. Não
máximo de tokens número inteiro O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt). Este valor foi agora preterido em favor de max_completion_tokens, e não é compatível com os modelos da série O1. Não 4096
tokens_máximos_de_conclusão número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Não
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Não
utilizador cadeia (de caracteres) Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. Não

criarPedidoDeConclusão

Nome Tipo Descrição Obrigatório Predefinido
avisar cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Sim
melhor_de número inteiro Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de candidatos concluídos e n especifica quantos devem retornar – best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
eco Booleano Echo de volta o prompt, além da conclusão
Não Falso
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhum
Logprobs número inteiro Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhum
máximo de tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo.
Não 16
n número inteiro Quantas completações gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
sementes número inteiro Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
pare cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens. O texto devolvido não conterá a sequência de paragem.
Não
fluxo Booleano Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor de dados únicos, à medida que estiverem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Não Falso
sufixo cadeia (de caracteres) O sufixo que vem após a conclusão do texto inserido.

Este parâmetro só é suportado para gpt-3.5-turbo-instruct.
Não Nenhum
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

criarRespostaDeConclusão

Representa uma resposta de conclusão da API. Observação: os objetos de resposta em fluxo contínuo e não em fluxo contínuo compartilham a mesma estrutura (ao contrário do endpoint de chat).

Nome Tipo Descrição Obrigatório Predefinido
ID cadeia (de caracteres) Um identificador exclusivo para a conclusão. Sim
escolhas matriz A lista de opções de conclusão que o modelo gerou para o prompt de entrada. Sim
criado número inteiro A marca temporal Unix (em segundos) de quando a conclusão foi criada. Sim
modelo cadeia (de caracteres) O modelo utilizado para a conclusão. Sim
filtrar_resultados_prompt promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. Não
impressão_digital_do_sistema cadeia (de caracteres) Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.
Não
objecto enumeração O tipo de objeto, que será sempre "text_completion"
Valores possíveis: text_completion
Sim
utilização conclusãoUso Estatísticas de utilização do pedido de preenchimento. Não

criarPedidoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
temperatura número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isto ou top_p, mas não ambos.
Não 1
top_p número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isto ou temperature, mas não ambos.
Não 1
fluxo Booleano Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos apenas de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não Falso
pare cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens.
Não
máximo de tokens número inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
Não
tokens_máximos_de_conclusão número inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Não
penalização por presença número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
penalização de frequência número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objecto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.
Não Nenhum
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Sim
fontes_de_dados matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
Logprobs Booleano Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. Não Falso
top_logprobs número inteiro Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
n número inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. Não 1
chamadas_de_ferramentas_em_paralelo ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não Verdade
formato_de_resposta ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, garantindo que o modelo corresponderá ao esquema JSON fornecido.

Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
sementes número inteiro Este recurso está em versão Beta.
Se for especificado, o nosso sistema fará o melhor esforço possível para efetuar uma amostragem determinística, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend.
Não
Ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas.
Não
escolha_de_ferramenta chatCompletionToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. Não
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
Não
funções matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não

Funções de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
nome cadeia (de caracteres) O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
parâmetros FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não

Opção de chamada de função do chatCompletion

Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

Nome Tipo Descrição Obrigatório Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada. Sim

mensagemDeSolicitaçãoDeConclusãoDoChat

Este componente pode ser um dos seguintes:

MensagemDoSistemaDeSolicitaçãoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do sistema. Sim
função enumeração O papel do autor das mensagens, neste caso system.
Valores possíveis: sistema
Sim
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não

MensagemDePedidoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do usuário.
Sim
função enumeração O papel do autor das mensagens, neste caso user.
Valores possíveis: utilizador
Sim
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não

MensagemDoAssistenteDePedidoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado.
Não
recusa cadeia (de caracteres) A mensagem de recusa por parte do assistente. Não
função enumeração O papel do autor das mensagens, neste caso assistant.
Valores possíveis: assistente
Sim
nome cadeia (de caracteres) Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
function_call objecto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não

Propriedades para function_call

Argumentos

Nome Tipo Descrição Predefinido
Argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

nome

Nome Tipo Descrição Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada.

mensagemDeFerramentaDeSolicitaçãoDeConclusãoDeConversa

Nome Tipo Descrição Obrigatório Predefinido
função enumeração O papel do autor das mensagens, neste caso tool.
Valores possíveis: ferramenta
Sim
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem da ferramenta. Sim
tool_call_id cadeia (de caracteres) Chamada de ferramenta à qual esta mensagem está respondendo. Sim

Mensagem de Função de Pedido de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
Sim
conteúdo cadeia (de caracteres) O conteúdo da mensagem de função. Sim
nome cadeia (de caracteres) O nome da função a ser chamada. Sim

parteDeConteúdoDaMensagemDeSistemaDePedidoDeConclusãoDeChat

Este componente pode ser um dos seguintes:

ParteDoConteúdoDaMensagemDoUsuárioChatCompletionRequest

Este componente pode ser um dos seguintes:

ParteDoConteúdoDaMensagemDoAssistenteDeSolicitaçãoDeConclusãoDoChat

Este componente pode ser um dos seguintes:

mensagemDeConteúdoFerramentaPedidoDeConclusãoChat

Este componente pode ser um dos seguintes:

conteúdoDaMensagemDePedidoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: texto
Sim
enviar SMS cadeia (de caracteres) O conteúdo do texto. Sim

conteúdoDeImagemDeMensagemDePedidoDeConversa

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: image_url
Sim
image_url objecto Sim

Propriedades para image_url

URL

Nome Tipo Descrição Predefinido
URL cadeia (de caracteres) Um URL da imagem ou os dados de imagem codificados em base64.

detalhe

Nome Tipo Descrição Predefinido
detalhe cadeia (de caracteres) Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. automóvel

recusaDeParteDoConteúdoDaMensagemDeRequisiçãoDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: recusa
Sim
recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Sim

Configuração de Extensão do Azure Chat

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

AzureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Descrição: uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: AzureChatExtensionType

Valores de Enum:

Valor Descrição
pesquisa Azure Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI.
azure_cosmos_db Representa o uso do Azure Cosmos DB como uma extensão de chat do Azure OpenAI.

azureSearchChatExtensionConfiguração

Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros azureSearchChatExtensionParameters (Parâmetros de Extensão de Chat da Pesquisa Azure) Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. Não

ParâmetrosDeExtensãoDeChatDeBuscaAzure

Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions Sim
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
informação sobre o cargo cadeia (de caracteres) Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. Não
ponto final cadeia (de caracteres) O caminho absoluto do endpoint para o recurso Azure Search a ser utilizado. Sim
nome_do_índice cadeia (de caracteres) O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. Sim
mapeamento_de_campos Opções de Mapeamento de Campo do Índice de Pesquisa Azure Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. Não
tipo_de_consulta azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. Não
configuração semântica cadeia (de caracteres) A configuração semântica adicional para a consulta. Não
filtro cadeia (de caracteres) Filtro de pesquisa. Não
incorporar_dependência onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Não

Opções de Mapeamento de Campos do Índice de Pesquisa do Azure

Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.

Nome Tipo Descrição Obrigatório Predefinido
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campos vetoriais matriz Os nomes dos campos que representam dados vetoriais. Não

Tipo de Consulta do Azure Search

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Descrição: O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: AzureSearchQueryType

Valores de Enum:

Valor Descrição
simples Representa o analisador de consulta simples padrão.
semântico Representa o analisador de consulta semântica para modelagem semântica avançada.
vetor Representa a pesquisa vetorial sobre dados computados.
vetor_simples_híbrido Representa uma combinação da estratégia de consulta simples com dados vetoriais.
vetor_semântico_híbrido Representa uma combinação de pesquisa semântica e consulta de dados vetoriais.

Configuração de Extensão de Chat do Azure Cosmos DB

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao utilizar o Azure Cosmos DB para
MongoDB vCore.
Não

ParâmetrosDaExtensãoDeChatDoAzureCosmosDB

Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Nome Tipo Descrição Obrigatório Predefinido
autenticação nasOpçõesDeAutenticaçãoDaStringDeConexãoDeDados As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. Sim
melhores_n_documentos número inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
em_escopo Booleano Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor número inteiro O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
informação sobre o cargo cadeia (de caracteres) Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. Não
nome_da_base_de_dados cadeia (de caracteres) O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. Sim
nome_do_conteiner cadeia (de caracteres) O nome do contêiner de recursos do Azure Cosmos DB. Sim
nome_do_índice cadeia (de caracteres) O nome do índice vCore do MongoDB para usar com o Azure Cosmos DB. Sim
mapeamento_de_campos azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Sim
incorporar_dependência onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim

Opções de Mapeamento de Campos do azureCosmosDB

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Nome Tipo Descrição Obrigatório Predefinido
campo_título cadeia (de caracteres) O nome do campo de índice a ser usado como título. Não
campo_url cadeia (de caracteres) O nome do campo de índice a ser usado como URL. Não
campo_caminho_do_ficheiro cadeia (de caracteres) O nome do campo de índice a ser usado como um caminho de arquivo. Não
campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
separador_de_campos_de_conteúdo cadeia (de caracteres) O padrão separador que os campos de conteúdo devem usar. Não
campos vetoriais matriz Os nomes dos campos que representam dados vetoriais. Sim

opçõesDeAutenticaçãoDeDados

As opções de autenticação para o Azure OpenAI On Your Data.

Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

TipoDeAutenticaçãoDosSeusDados

Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Descrição: Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Tipo: string

Predefinido:

Nome do Enumerador: OnYourDataAuthenticationType

Valores de Enum:

Valor Descrição
chave_de_api Autenticação via chave API.
string de conexão Autenticação via cadeia de conexão.
identidade gerida e atribuída pelo sistema Autenticação através da identidade gerenciada atribuída pelo sistema.
identidade_gerida_atribuída_ao_utilizador Autenticação através da identidade gerenciada atribuída pelo usuário.

sobreOpçõesDeAutenticaçãoChaveAPIDosSeusDados

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.

Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
chave cadeia (de caracteres) A chave de API a ser usada para autenticação. Não

opçõesDeAutenticaçãoNaSuaStringDeConexãoDeDados

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
string de conexão cadeia (de caracteres) A cadeia de conexão a ser usada para autenticação. Não

Opções de Autenticação da Identidade Gerida Atribuída ao Seu Sistema

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.

Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

OpçõesDeAutenticaçãoDeIdentidadeGeridaAtribuídaPelaSuaDadosUtilizador

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Nome Tipo Descrição Obrigatório Predefinido
tipo tipoDeAutenticaçãoNosDados Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
ID de recurso de identidade gerida cadeia (de caracteres) A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. Não

emSeuFonteDeVectorizaçãoDosDados

Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.

Nome Tipo Descrição Obrigatório Predefinido
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim

TipoFonteDeVetorizacaoDosSeusDados

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.

Descrição: Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.

Tipo: string

Predefinido:

Nome da Enumeração: OnYourDataVectorizationSourceType

Valores de Enum:

Valor Descrição
ponto final Representa a vetorização executada por chamadas de serviços públicos para um modelo de incorporação da Azure OpenAI.
nome_da_implementação Representa um nome de implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas
On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, o que habilita o vetor
pesquise mesmo em redes privadas.

onYourDataDeploymentNameVectorizationSource (assuming it should remain untranslated due to its potential status as a specific and recognizable technical term or name)

Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia num nome de implementação de um modelo de embeddings interno no mesmo recurso Azure OpenAI.

Nome Tipo Descrição Obrigatório Predefinido
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
nome_da_implementação cadeia (de caracteres) Especifica o nome da implantação do modelo a utilizar para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. Não

naFonteDeVetorizaçãoDoSeuEndpointDeDados

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, com base numa chamada pública de endpoint do Azure OpenAI para embeddings.

Nome Tipo Descrição Obrigatório Predefinido
tipo emOSeuTipoDeFonteDeVectorizaçãoDeDados Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
autenticação onYourDataOpçõesDeAutenticaçãoDeChaveApi As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. Não
ponto final cadeia (de caracteres) Especifica o ponto de extremidade a ser usado para vetorização. Esse ponto de extremidade deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará esse ponto de extremidade por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. Não

azureChatExtensionsContextoMensagem

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

Nome Tipo Descrição Obrigatório Predefinido
Citações matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. Não
intenção cadeia (de caracteres) A intenção detetada a partir do histórico de conversas, usada para avançar para a próxima rodada, mantendo o contexto. Não

citação

informações de citação para uma mensagem de resposta de conclusão do chat.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia (de caracteres) O conteúdo da citação. Sim
título cadeia (de caracteres) O título da citação. Não
URL cadeia (de caracteres) O URL da citação. Não
caminho do arquivo cadeia (de caracteres) O caminho do arquivo da citação. Não
Identificador_de_fragmento cadeia (de caracteres) O ID do segmento da citação. Não

Chamada da Ferramenta de Mensagem de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Sim
tipo toolCallType O tipo de chamada de ferramenta, neste caso function. Sim
função objecto A função que o modelo chamou. Sim

Propriedades para função

nome

Nome Tipo Descrição Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada.

Argumentos

Nome Tipo Descrição Predefinido
Argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

TipoDeChamadaDeFerramenta

O tipo de chamada de ferramenta, neste caso function.

Descrição: O tipo de chamada da ferramenta, neste caso function.

Tipo: string

Predefinido:

Nome do Enum: ToolCallType

Valores de Enum:

Valor Descrição
função O tipo de chamada da ferramenta é função.

Ferramenta de Mensagem de Pedido de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
tool_call_id cadeia (de caracteres) Chamada de ferramenta à qual esta mensagem está respondendo. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Não

funçãoDeMensagemDePedidoDeConclusãoDoChat

Nome Tipo Descrição Obrigatório Predefinido
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
Não
nome cadeia (de caracteres) O conteúdo da mensagem. Não
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Não

createChatCompletionResponse

Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Obrigatório Predefinido
ID cadeia (de caracteres) Um identificador exclusivo para a conclusão do chat. Sim
filtrar_resultados_prompt promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. Não
escolhas matriz Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. Sim
criado número inteiro O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. Sim
modelo cadeia (de caracteres) O modelo usado para a conclusão do chat. Sim
impressão_digital_do_sistema cadeia (de caracteres) Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.
Não
objecto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Sim
utilização conclusãoUso Estatísticas de utilização do pedido de preenchimento. Não

createChatCompletionStreamResponse

Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Obrigatório Predefinido
ID cadeia (de caracteres) Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. Sim
escolhas matriz Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1.
Sim
criado número inteiro O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. Sim
modelo cadeia (de caracteres) O modelo para gerar a conclusão. Sim
impressão_digital_do_sistema cadeia (de caracteres) Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.
Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.
Não
objecto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Sim

chatCompletionStreamResponseDelta

Um delta de conclusão de chat gerado por respostas de modelo transmitidas.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo cadeia (de caracteres) O conteúdo da mensagem de bloco. Não
function_call objecto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
tool_calls matriz Não
função enumeração O papel do autor desta mensagem.
Valores possíveis: sistema, utilizador, assistente, ferramenta
Não
recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Não

Propriedades para function_call

Argumentos

Nome Tipo Descrição Predefinido
Argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

nome

Nome Tipo Descrição Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada.

FragmentoChamadaFerramentaMensagemConclusãoChat

Nome Tipo Descrição Obrigatório Predefinido
indexar número inteiro Sim
ID cadeia (de caracteres) O identificador da chamada da ferramenta. Não
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Não
função objecto Não

Propriedades para função

nome

Nome Tipo Descrição Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada.

Argumentos

Nome Tipo Descrição Predefinido
Argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

opçõesDeTransmissãoDeConclusãoDeChat

Opções de resposta em streaming. Defina isso apenas quando definir stream: true.

Nome Tipo Descrição Obrigatório Predefinido
incluir_uso Booleano Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo.
Não

chatCompletionChoiceLogProbs

Registre informações de probabilidade para a escolha.

Nome Tipo Descrição Obrigatório Predefinido
conteúdo matriz Uma lista de tokens de conteúdo de mensagem com informações de probabilidade logarítmica. Sim
recusa matriz Uma lista de tokens de recusa de mensagens com informações de probabilidade em logarítmico. Não

chatCompletionTokenLogprob

Nome Tipo Descrição Obrigatório Predefinido
token cadeia (de caracteres) O token. Sim
Logprob número A probabilidade logarítmica deste token. Sim
Bytes matriz Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. Sim
top_logprobs matriz Lista dos tokens mais prováveis e o log de probabilidade, nesta posição específica de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. Sim

MensagemDeRespostaDeConclusãoDeChat (chatCompletionResponseMessage)

Uma mensagem de conclusão do chat gerada pelo modelo.

Nome Tipo Descrição Obrigatório Predefinido
função RoleDaMensagemDeConclusãoDoChat O papel do autor da mensagem de resposta. Sim
recusa cadeia (de caracteres) A mensagem de recusa gerada pelo modelo. Sim
conteúdo cadeia (de caracteres) O conteúdo da mensagem. Sim
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas
na geração de uma resposta correspondente de conclusão do chat. Essas informações de contexto só são preenchidas quando
usando uma solicitação OpenAI do Azure configurada para usar uma extensão correspondente.
Não

funçãoMensagemRespostaConclusãoChat

O papel do autor da mensagem de resposta.

Descrição: a função do autor da mensagem de resposta.

Tipo: string

Predefinido:

Valores de Enum:

  • assistente

opçãoDeEscolhaDeFerramentaDeConclusãoDeChat

Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes.

Este componente pode ser um dos seguintes:

escolhaFerramentaNomeadaDeConclusaoChat

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Sim
função objecto Sim

Propriedades para função

nome

Nome Tipo Descrição Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada.

ParallelToolCalls

Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.

Nenhuma propriedade definida para este componente.

chamadasDeFerramentaParaMensagemDeConclusãoDeChat

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para este componente.

Chamada de função de conclusão de chat

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Nome Tipo Descrição Obrigatório Predefinido
nome cadeia (de caracteres) O nome da função a ser chamada. Sim
Argumentos cadeia (de caracteres) Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Sim

conclusãoUso

Estatísticas de utilização do pedido de preenchimento.

Nome Tipo Descrição Obrigatório Predefinido
prompt_tokens número inteiro Número de tokens no prompt. Sim
tokens_de_conclusão número inteiro Número de tokens na conclusão gerada. Sim
total de tokens número inteiro Número total de tokens usados na solicitação (prompt + conclusão). Sim
detalhes_de_tokens_de_conclusão objecto Distribuição dos tokens usados numa conclusão. Não

Propriedades para completion_tokens_details

fatores_de_razonamento

Nome Tipo Descrição Predefinido
fatores_de_razonamento número inteiro Tokens gerados pelo modelo de raciocínio.

Ferramenta de Conclusão de Chat

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Sim
função FunctionObject Sim

Parâmetros de Função

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para este componente.

FunctionObject

Nome Tipo Descrição Obrigatório Predefinido
descrição cadeia (de caracteres) Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
nome cadeia (de caracteres) O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
parâmetros FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não
rigoroso Booleano Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. Não Falso

FormatoDoTextoDeResposta

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de formato de resposta que está sendo definido: text
Valores possíveis: texto
Sim

FormatoDeRespostaObjetoJson

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de formato de resposta que está sendo definido: json_object
Valores possíveis: json_object
Sim

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

Nenhuma propriedade definida para este componente.

FormatoDeRespostaEsquemaJson

Nome Tipo Descrição Obrigatório Predefinido
tipo enumeração O tipo de formato de resposta que está sendo definido: json_schema
Valores possíveis: json_schema
Sim
esquema_json objecto Sim

Propriedades para json_schema

descrição

Nome Tipo Descrição Predefinido
descrição cadeia (de caracteres) Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato.

nome

Nome Tipo Descrição Predefinido
nome cadeia (de caracteres) O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64.

esquema

Nome Tipo Descrição Predefinido
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

rigoroso

Nome Tipo Descrição Predefinido
rigoroso Booleano Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. Falso

OpçãoComumDeConclusãoDeChat

Nome Tipo Descrição Obrigatório Predefinido
indexar número inteiro Não
motivo_de_finalização cadeia (de caracteres) Não

criarPedidoDeTradução

Pedido de tradução.

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O arquivo de áudio a ser traduzido. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

Resposta de Áudio

Resposta de tradução ou transcrição quando response_format foi json

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) Texto traduzido ou transcrito. Sim

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Nome Tipo Descrição Obrigatório Predefinido
enviar SMS cadeia (de caracteres) Texto traduzido ou transcrito. Sim
tarefa cadeia (de caracteres) Tipo de tarefa de áudio. Não
linguagem cadeia (de caracteres) Idioma. Não
Duração número Duração. Não
segmentos matriz Não

formatoDeRespostaDeÁudio

Define o formato da saída.

Descrição: Define o formato da saída.

Tipo: string

Predefinido:

Valores de Enum:

  • Json
  • enviar SMS
  • SRT
  • json verboso
  • VTT

criarPedidoDeTranscrição

Pedido de transcrição.

Nome Tipo Descrição Obrigatório Predefinido
ficheiro cadeia (de caracteres) O objeto do arquivo de áudio a ser transcrito. Sim
avisar cadeia (de caracteres) Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
formato_de_resposta audioResponseFormat Define o formato da saída. Não
temperatura número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
linguagem cadeia (de caracteres) O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não

segmento de áudio

Segmento de transcrição ou tradução.

Nome Tipo Descrição Obrigatório Predefinido
ID número inteiro Identificador de segmento. Não
procurar número Deslocamento do segmento. Não
Início número Compensação de início de segmento. Não
fim número Compensação final do segmento. Não
enviar SMS cadeia (de caracteres) Segmentar o texto. Não
fichas matriz Fichas do texto. Não
temperatura número Temperatura. Não
avg_logprob número Probabilidade média de log. Não
relação de compressão número Taxa de compressão. Não
probabilidade_de_ausência_de_fala número Probabilidade de no speech. Não

qualidade de imagem

A qualidade da imagem que será gerada.

Descrição: A qualidade da imagem que será gerada.

Tipo: string

Padrão: norma

Enum Nome: Qualidade

Valores de Enum:

Valor Descrição
norma A qualidade normal gera imagens de qualidade padrão.
alta definição A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem.

imagesResponseFormat

O formato em que as imagens geradas são retornadas.

Descrição: O formato no qual as imagens geradas são retornadas.

Tipo: string

Padrão: url

Nome do Enum: ImagesResponseFormat

Valores de Enum:

Valor Descrição
URL O URL que fornece acesso temporário para baixar as imagens geradas.
b64_json As imagens geradas são retornadas como cadeia de caracteres codificada base64.

tamanho da imagem

O tamanho das imagens geradas.

Descrição: O tamanho das imagens geradas.

Tipo: string

Padrão: 1024x1024

Nome do Enum: Tamanho

Valores de Enum:

Valor Descrição
1792x1024 O tamanho desejado da imagem gerada é 1792x1024 pixels.
1024x1792 O tamanho desejado da imagem gerada é 1024x1792 pixels.
1024 x 1024 O tamanho desejado da imagem gerada é 1024x1024 pixels.

estilo de imagem

O estilo das imagens geradas.

Descrição: O estilo das imagens geradas.

Tipo: string

Padrão: vívido

Nome do Enum: Estilo

Valores de Enum:

Valor Descrição
vívido Vivid cria imagens que são hiper-realistas e dramáticas.
naturais Natural cria imagens mais naturais e menos hiper-realistas.

pedidoDeGeraçõesDeImagem

Nome Tipo Descrição Obrigatório Predefinido
avisar cadeia (de caracteres) Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. Sim
n número inteiro O número de imagens a gerar. Não 1
tamanho imageSize O tamanho das imagens geradas. Não 1024 x 1024
formato_de_resposta imagesResponseFormat O formato em que as imagens geradas são retornadas. Não URL
utilizador cadeia (de caracteres) Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não norma
estilo imageStyle O estilo das imagens geradas. Não vívido

generateImagesResponse

Nome Tipo Descrição Obrigatório Predefinido
criado número inteiro O carimbo de data/hora Unix quando a operação foi criada. Sim
dados matriz Os dados de resultado da operação, se bem-sucedida Sim

resultadoImagem

A URL da imagem ou a imagem codificada, se obtida com sucesso, e um erro caso contrário.

Nome Tipo Descrição Obrigatório Predefinido
URL cadeia (de caracteres) O url da imagem. Não
b64_json cadeia (de caracteres) A imagem codificada base64 Não
resultados_do_filtro_de_conteúdo dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. Não
Proposta de Melhorias: - Certificar-se de que as frases e termos são traduzidos corretamente para refletir o mesmo significado do texto de origem. - Adaptar quaisquer termos em inglês que possam ser traduzidos naturalmente para português, preservando o seu significado. - Corrigir quaisquer questões gramaticais para aumentar a fluência e a legibilidade em português. - Usar a estrutura de frases em português natural para que a tradução soe nativa. - Verificar o uso apropriado de pontuação e registro para o português. cadeia (de caracteres) O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. Não
filtrar_resultados_prompt dalleFilterResults Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

Extensões de conclusão

As extensões de conclusão não fazem parte da versão GA mais recente da especificação de inferência do plano de dados do Azure OpenAI.

Mensagem de bate-papo

O objeto de mensagem de chat não faz parte da versão mais recente de Disponibilidade Geral (GA) da especificação de inferência do plano de dados do Azure OpenAI.

Conversão de texto em fala (Pré-visualização)

Atualmente, não faz parte da versão mais recente do Azure OpenAI GA da especificação de inferência do plano de dados do Azure OpenAI. Consulte a versão de pré-visualização mais recente para esta funcionalidade.

Próximos passos

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.