Partilhar via


Referência da API REST do Azure OpenAI Service

Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.

Especificações da API

O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:

  • Plano de controlo
  • Plano de dados - criação
  • Plano de dados - inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem seu próprio conjunto exclusivo de visualizações e versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.

API Versão de pré-visualização mais recente Última versão do GA Especificações Description
Plano de controlo 2024-04-01-preview 2023-05-01 Arquivos de especificações O Azure OpenAI compartilha um plano de controle comum com todos os outros Serviços de IA do Azure. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure.
Plano de dados - criação 2024-05-01-preview 2024-06-01 Arquivos de especificações A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão e determinadas consultas de nível de modelo
Plano de dados - inferência 2024-05-01-preview 2024-06-01 Arquivos de especificações A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, fala/sussurro, em seus dados, Dall-e, assistentes, etc.

Autenticação

O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a api-key chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.

  • Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o Authorization cabeçalho. O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.

Controle de versão da API REST

As APIs de serviço têm um controlo de versão com o parâmetro de consulta api-version. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a versão mais recente do GA da especificação de inferência do plano de dados OpenAI do Azure, 2024-06-01.

Se você estiver procurando documentação sobre a versão mais recente da API de visualização, consulte a API de inferência de plano de dados de visualização mais recente

Conclusões

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
Prompt cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificadas como uma cadeia de caracteres ou matriz de cadeias de caracteres.
Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. O tamanho máximo permitido da lista de cadeias de caracteres é 2048.
Não
max_tokens integer A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo. A maioria dos modelos tem um comprimento de contexto de 2048 tokens (exceto para os modelos mais recentes, que suportam 4096). Tem mínimo de 0. Não 16
temperatura Número Qual a temperatura de amostragem a utilizar. Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem máxima arg) para aplicações com uma resposta bem definida.
Geralmente, recomendamos alterar este ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
logit_bias objeto O padrão é null. Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Você pode usar essa ferramenta tokenizadora (que funciona para GPT-2 e GPT-3) para converter texto em IDs de token. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256":-100} para impedir que o <token |endoftext|> seja gerado. Não
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos Não
n integer Quantas finalizações gerar para cada prompt. Mínimo de 1 e máximo de 128 permitidos.
Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e parar.
Não 1
transmissão em fluxo boolean Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que se tornam disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Não False
Logprobs integer Inclua as probabilidades de log nos tokens mais prováveis do logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até elementos logprobs+1 na resposta.
Mínimo de 0 e máximo de 5 permitidos.
Não Nenhuma
sufixo string O sufixo que vem após a conclusão do texto inserido. Não
echo boolean Echo de volta o prompt, além da conclusão Não False
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. Não
completion_config string Não
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
best_of integer Gera best_of finalizações do lado do servidor e retorna o "melhor" (definido como aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.
Quando usado com n, best_of controla o número de finalizações de candidatos e n especifica quantos devem retornar - best_of deve ser maior que n.
Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e parar. Tem valor máximo de 128.
Não

Respostas

Nome Tipo Descrição Necessário Predefinição
id string Sim
objeto string Sim
criado integer Sim
modelo string Sim
prompt_filter_results promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. Não
escolhas matriz Sim
ativa objeto Não

Propriedades para uso

completion_tokens

Nome Tipo Description Predefinido
completion_tokens Número
prompt_tokens Número
total_tokens Número

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objeto

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporações

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
input cadeia de caracteres ou matriz Texto de entrada para obter incorporações, codificado como uma cadeia de caracteres. Para obter incorporações para várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres. Cada entrada não deve exceder 2048 tokens de comprimento.
A menos que você esteja incorporando código, sugerimos substituir novas linhas (\n) em sua entrada por um único espaço, pois observamos resultados inferiores quando novas linhas estão presentes.
Sim
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
input_type string tipo de entrada de pesquisa de incorporação a ser usada Não
encoding_format string O formato para retornar as incorporações. Pode ser qualquer um float ou base64. O padrão é float. Não
dimensões integer O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. Não

Respostas

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
modelo string Sim
dados matriz Sim
ativa objeto Sim

Propriedades para uso

prompt_tokens

Nome Tipo Description Predefinido
prompt_tokens integer

total_tokens

Nome Tipo Description Predefinido
total_tokens integer

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objeto

Exemplos

Exemplo

Retorne as incorporações para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusão do chat

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

Cria uma conclusão para a mensagem de chat

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
transmissão em fluxo boolean Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não False
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. Não
max_tokens integer O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens de prompt). Não 4096
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Não
Utilizador string Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. Não
data_sources matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
n integer Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Não 1
sementes integer Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado. O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. Não 0
Logprobs boolean Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message. Esta opção não está atualmente disponível no gpt-4-vision-preview modelo. Não False
top_logprobs integer Um inteiro entre 0 e 5 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
response_format objeto Um objeto que especifica o formato que o modelo deve produzir. Usado para habilitar o modo JSON. Não
ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
tool_choice chatCompletionToolChoiceOption Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma função específica através {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. Não
functions matriz Preterido em favor de tools. Uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
function_call string ou objeto Preterido em favor de tool_choice. Controla como o modelo responde a chamadas de função. "Nenhum" significa que o modelo não chama uma função e responde ao utilizador final. "Auto" significa que o modelo pode escolher entre um utilizador final ou chamar uma função. Especificar uma função específica através {"name":\ "my_function"} força o modelo a chamar essa função. "none" é o padrão quando nenhuma função está presente. "auto" é o padrão se as funções estiverem presentes. Não

Imóveis para response_format

Type

Nome Tipo Description Predefinido
tipo chatCompletionResponseFormat Configuração para ativar o json_object modo JSON. Isso garante que a mensagem que o modelo gera é JSON válida. texto

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json createChatCompletionResponse

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "system",
   "content": "you're a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "you're an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Transcreve o áudio para o idioma de entrada.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo de sussurro.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Necessário Predefinição
ficheiro string O objeto do arquivo de áudio a ser transcrito. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
idioma string O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json audioResponse ou audioVerboseResponse
text/plain string Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

Transcreve e traduz áudio de entrada para texto em inglês.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo de sussurro que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Necessário Predefinição
ficheiro string O arquivo de áudio a ser traduzido. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json audioResponse ou audioVerboseResponse
text/plain string Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Geração de imagens

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação de modelo DALLE

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do dall-e modelo que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
Prompt string Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4000 caracteres. Sim
n integer O número de imagens a gerar. Não 1
size imageSize O tamanho das imagens geradas. Não 1024 x 1024
response_format imagesResponseFormat O formato em que as imagens geradas são retornadas. Não url
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não padrão
style imageStyle O estilo das imagens geradas. Não vívido

Respostas

Código de status: 200

Descrição: Ok

Tipo de conteúdo Tipo Descrição
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Tipo de conteúdo Tipo Descrição
application/json dalleErrorResponse

Exemplos

Exemplo

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Componentes

errorResponse

Nome Tipo Descrição Necessário Predefinição
error erro Não

Base de erro

Nome Tipo Descrição Necessário Predefinição
code string Não
mensagem string Não

Erro

Nome Tipo Descrição Necessário Predefinição
param string Não
tipo string Não
inner_error innerError Erro interno com detalhes adicionais. Não

innerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Necessário Predefinição
code innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

innerErrorCode

Códigos de erro para o objeto de erro interno.

Descrição: Códigos de erro para o objeto de erro interno.

Tipo: string

Predefinido:

Nome do Enum: InnerErrorCode

Valores de Enum:

valor Description
ResponsávelAIPolicyViolation O prompt violou uma das mais regras de filtro de conteúdo.

dalleErrorResponse

Nome Tipo Descrição Necessário Predefinição
error dalleError Não

dalleError

Nome Tipo Descrição Necessário Predefinição
param string Não
tipo string Não
inner_error dalleInnerError Erro interno com detalhes adicionais. Não

dalleInnerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Necessário Predefinição
code innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results dalleFilterResultados Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não
revised_prompt string O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. Não

contentFilterResultBase

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim

contentFilterSeverityResult

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim
gravidade string Não

contentFilterDetectedResult

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim
detetada boolean Não

contentFilterDetectedWithCitationResult

Nome Tipo Descrição Necessário Predefinição
citação objeto Não

Imóveis para citação

URL

Nome Tipo Description Predefinido
URL string

Licença

Nome Tipo Description Predefinido
license string

contentFilterResultsBase

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
error Base de erro Não

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
error Base de erro Não
fuga de presos contentFilterDetectedResult Não

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
error Base de erro Não
protected_material_text contentFilterDetectedResult Não
protected_material_code contentFilterDetectedWithCitationResult Não

promptFilterResult

A filtragem de conteúdo resulta de um único prompt na solicitação.

Nome Tipo Descrição Necessário Predefinição
prompt_index integer Não
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

promptFilterResults

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes.

dalleContentFilterResults

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não

dalleFilterResultados

Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
fuga de presos contentFilterDetectedResult Não

chatCompletionsRequestCommon

Nome Tipo Descrição Necessário Predefinição
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
transmissão em fluxo boolean Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não False
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. Não
max_tokens integer O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens de prompt). Não 4096
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Não
Utilizador string Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. Não

createChatCompletionRequest

Nome Tipo Descrição Necessário Predefinição
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
transmissão em fluxo boolean Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não False
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. Não
max_tokens integer O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens de prompt). Não 4096
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Não
Utilizador string Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. Não
data_sources matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
n integer Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Não 1
sementes integer Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado. O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. Não 0
Logprobs boolean Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message. Esta opção não está atualmente disponível no gpt-4-vision-preview modelo. Não False
top_logprobs integer Um inteiro entre 0 e 5 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
response_format objeto Um objeto que especifica o formato que o modelo deve produzir. Usado para habilitar o modo JSON. Não
ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
tool_choice chatCompletionToolChoiceOption Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma função específica através {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. Não
functions matriz Preterido em favor de tools. Uma lista de funções para as quais o modelo pode gerar entradas JSON. Não
function_call string ou objeto Preterido em favor de tool_choice. Controla como o modelo responde a chamadas de função. "Nenhum" significa que o modelo não chama uma função e responde ao utilizador final. "Auto" significa que o modelo pode escolher entre um utilizador final ou chamar uma função. Especificar uma função específica através {"name":\ "my_function"} força o modelo a chamar essa função. "none" é o padrão quando nenhuma função está presente. "auto" é o padrão se as funções estiverem presentes. Não

Imóveis para response_format

Type

Nome Tipo Description Predefinido
tipo chatCompletionResponseFormat Configuração para ativar o json_object modo JSON. Isso garante que a mensagem que o modelo gera é JSON válida. texto

chatCompletionResponseFormat

Configuração para ativar o json_object modo JSON. Isso garante que a mensagem que o modelo gera é JSON válida.

Descrição: Configuração para habilitar o json_object modo JSON. Isso garante que a mensagem que o modelo gera é JSON válida.

Tipo: string

Padrão: texto

Nome do Enum: ChatCompletionResponseFormat

Valores de Enum:

valor Description
texto O formato de resposta é uma cadeia de caracteres de texto sem formatação.
json_object O formato de resposta é um objeto JSON.

chatCompletionFunction

Nome Tipo Descrição Necessário Predefinição
nome string O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
descrição string A descrição do que a função faz. Não
parâmetros chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte a referência do esquema JSON para obter documentação sobre o formato. Não

chatCompletionFunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte a referência do esquema JSON para obter documentação sobre o formato.

chatCompletionRequestMessage

Nome Tipo Descrição Necessário Predefinição
função chatCompletionRequestMessageRole O papel do autor das mensagens. Sim

chatCompletionRequestMessageRole

O papel do autor das mensagens.

Descrição: O papel do autor das mensagens.

Tipo: string

Predefinido:

Nome do Enum: ChatCompletionRequestMessageRole

Valores de Enum:

valor Description
sistema A função de autor da mensagem é sistema.
Utilizador A função de autor da mensagem é usuário.
assistente A função de autor da mensagem é assistente.
ferramenta A função de autor da mensagem é a ferramenta.
function Preterido. A função de autor da mensagem é função.

chatCompletionRequestMessageSystem

Nome Tipo Descrição Necessário Predefinição
função chatCompletionRequestMessageRole O papel do autor das mensagens. Sim
content string O conteúdo da mensagem. Não

chatCompletionRequestMessageUser

Nome Tipo Descrição Necessário Predefinição
função chatCompletionRequestMessageRole O papel do autor das mensagens. Sim
content cadeia de caracteres ou matriz Não

chatCompletionRequestMessageContentPart

Nome Tipo Descrição Necessário Predefinição
tipo chatCompletionRequestMessageContentPartType O tipo da parte de conteúdo. Sim

chatCompletionRequestMessageContentPartType

O tipo da parte de conteúdo.

Descrição: o tipo da parte do conteúdo.

Tipo: string

Predefinido:

Nome do Enum: ChatCompletionRequestMessageContentPartType

Valores de Enum:

valor Description
texto O tipo de parte do conteúdo é texto.
image_url O tipo de parte de conteúdo é image_url.

chatCompletionRequestMessageContentPartText

Nome Tipo Descrição Necessário Predefinição
tipo chatCompletionRequestMessageContentPartType O tipo da parte de conteúdo. Sim
texto string O conteúdo do texto. Não

chatCompletionRequestMessageContentPartImage

Nome Tipo Descrição Necessário Predefinição
tipo chatCompletionRequestMessageContentPartType O tipo da parte de conteúdo. Sim
url string Um URL da imagem ou os dados de imagem codificados em base64. Não
detalhe imageDetailLevel Especifica o nível de detalhe da imagem. Não auto

imageDetailLevel

Especifica o nível de detalhe da imagem.

Descrição: especifica o nível de detalhe da imagem.

Tipo: string

Padrão: auto

Nome do Enum: ImageDetailLevel

Valores de Enum:

valor Description
auto O nível de detalhe da imagem é automático.
lowa O nível de detalhe da imagem é baixo.
alto O nível de detalhe da imagem é alto.

chatCompletionRequestMessageAssistant

Nome Tipo Descrição Necessário Predefinição
função chatCompletionRequestMessageRole O papel do autor das mensagens. Sim
content string O conteúdo da mensagem. Não
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
Contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas
na geração de uma resposta correspondente de conclusão de chat. Essas informações de contexto só são preenchidas quando
usando uma solicitação OpenAI do Azure configurada para usar uma extensão correspondente.
Não

azureChatExtensionConfiguration

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

azureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Descrição: uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
Solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: AzureChatExtensionType

Valores de Enum:

valor Description
azure_search Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI.
azure_cosmos_db Representa o uso do Azure Cosmos DB como uma extensão de chat do Azure OpenAI.

azureSearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros azureSearchChatExtensionParameters Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. Não

azureSearchChatExtensionParameters

Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
role_information string Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. Não
endpoint string O caminho de ponto de extremidade absoluto para o recurso de Pesquisa do Azure a ser usado. Sim
index_name string O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. Sim
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. Não
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. Não
semantic_configuration string A configuração semântica adicional para a consulta. Não
filtrar string Filtro de pesquisa. Não
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Não

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Não

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Descrição: O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: azureSearchQueryType

Valores de Enum:

valor Description
simples Representa o analisador de consulta simples padrão.
semânticos Representa o analisador de consulta semântica para modelagem semântica avançada.
vetor Representa a pesquisa vetorial sobre dados computados.
vector_simple_hybrid Representa uma combinação da estratégia de consulta simples com dados vetoriais.
vector_semantic_hybrid Representa uma combinação de pesquisa semântica e consulta de dados vetoriais.

azureCosmosDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para
MongoDB vCore.
Não

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
role_information string Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. Não
database_name string O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. Sim
container_name string O nome do contêiner de recursos do Azure Cosmos DB. Sim
index_name string O nome do índice vCore do MongoDB a ser usado com o Azure Cosmos DB. Sim
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Sim

onYourDataAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onYourDataAuthenticationType

Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Descrição: Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Tipo: string

Predefinido:

Nome do Enum: OnYourDataAuthenticationType

Valores de Enum:

valor Description
api_key Autenticação via chave API.
connection_string Autenticação via cadeia de conexão.
system_assigned_managed_identity Autenticação através da identidade gerenciada atribuída pelo sistema.
user_assigned_managed_identity Autenticação através da identidade gerenciada atribuída pelo usuário.

onYourDataApiKeyAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
key string A chave de API a ser usada para autenticação. Não

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
connection_string string A cadeia de conexão a ser usada para autenticação. Não

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
managed_identity_resource_id string A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. Não

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.

Descrição: Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
Pesquisa vetorial.

Tipo: string

Predefinido:

Nome do Enum: OnYourDataVectorizationSourceType

Valores de Enum:

valor Description
endpoint Representa a vetorização executada por chamadas de serviço público para um modelo de incorporação do Azure OpenAI.
deployment_name Representa um nome de implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas
O recurso on your data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que habilita o vetor
pesquise mesmo em redes privadas.

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo de incorporação interno no mesmo recurso do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
deployment_name string Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. Não

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia no ponto de extremidade de incorporações públicas para o Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. Não
endpoint string Especifica o ponto de extremidade a ser usado para vetorização. Esse ponto de extremidade deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará esse ponto de extremidade por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. Não

azureChatExtensionsMessageContext

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

Nome Tipo Descrição Necessário Predefinição
Citações matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. Não
intenção string A intenção detetada a partir do histórico de bate-papo, usado para passar para o próximo turno para transportar o contexto. Não

Citação

Informações de citação para uma mensagem de resposta de conclusão de chat.

Nome Tipo Descrição Necessário Predefinição
content string O conteúdo da citação. Sim
title string O título da citação. Não
url string O URL da citação. Não
caminho do arquivo string O caminho do arquivo da citação. Não
chunk_id string O ID do bloco da citação. Não

chatCompletionMessageToolCall

Nome Tipo Descrição Necessário Predefinição
id string O ID da chamada da ferramenta. Sim
tipo toolCallType O tipo de chamada de ferramenta, neste caso function. Sim
function objeto A função que o modelo chamou. Sim

Propriedades para função

Nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

toolCallType

O tipo de chamada de ferramenta, neste caso function.

Descrição: O tipo de chamada da ferramenta, neste caso function.

Tipo: string

Predefinido:

Nome do Enum: ToolCallType

Valores de Enum:

valor Description
function O tipo de chamada de ferramenta é função.

chatCompletionRequestMessageTool

Nome Tipo Descrição Necessário Predefinição
função chatCompletionRequestMessageRole O papel do autor das mensagens. Sim
tool_call_id string Chamada de ferramenta à qual esta mensagem está respondendo. Não
content string O conteúdo da mensagem. Não

chatCompletionRequestMessageFunction

Nome Tipo Descrição Necessário Predefinição
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
Sim
nome string O conteúdo da mensagem. Não
content string O conteúdo da mensagem. Não

createChatCompletionResponse

Nome Tipo Descrição Necessário Predefinição
id string Um identificador exclusivo para a conclusão do chat. Sim
objeto chatCompletionResponseObject O tipo de objeto. Sim
criado integer O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. Sim
modelo string O modelo usado para a conclusão do chat. Sim
ativa conclusãoUso Estatísticas de utilização do pedido de conclusão. Não
system_fingerprint string Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. Não
prompt_filter_results promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. Não
escolhas matriz Não

chatCompletionChoiceLogProbs

Registre informações de probabilidade para a escolha.

Nome Tipo Descrição Necessário Predefinição
content matriz Uma lista de tokens de conteúdo de mensagem com informações de probabilidade de log. Sim

chatCompletionTokenLogprob

Nome Tipo Descrição Necessário Predefinição
token string O token. Sim
Logprob Número A probabilidade de log desse token. Sim
bytes matriz Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. Sim
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade de log, nesta posição de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. Sim

chatCompletionResponseMessage

Uma mensagem de conclusão do chat gerada pelo modelo.

Nome Tipo Descrição Necessário Predefinição
função chatCompletionResponseMessageRole O papel do autor da mensagem de resposta. Não
content string O conteúdo da mensagem. Não
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
Contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas
na geração de uma resposta correspondente de conclusão de chat. Essas informações de contexto só são preenchidas quando
usando uma solicitação OpenAI do Azure configurada para usar uma extensão correspondente.
Não

chatCompletionResponseMessageRole

O papel do autor da mensagem de resposta.

Descrição: a função do autor da mensagem de resposta.

Tipo: string

Predefinido:

Valores de Enum:

  • assistente

chatCompletionToolChoiceOption

Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma função específica através {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.

Este componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Não
function objeto Não

Propriedades para função

Nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

chatCompletionFunctionCall

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Nome Tipo Descrição Necessário Predefinição
nome string O nome da função a ser chamada. Sim
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Sim

chatConclusãoRespostaComum

Nome Tipo Descrição Necessário Predefinição
id string Um identificador exclusivo para a conclusão do chat. Sim
objeto chatCompletionResponseObject O tipo de objeto. Sim
criado integer O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. Sim
modelo string O modelo usado para a conclusão do chat. Sim
ativa conclusãoUso Estatísticas de utilização do pedido de conclusão. Não
system_fingerprint string Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. Não

chatCompletionResponseObject

O tipo de objeto.

Descrição: O tipo de objeto.

Tipo: string

Predefinido:

Nome do Enum: ChatCompletionResponseObject

Valores de Enum:

valor Description
chat.conclusão O tipo de objeto é conclusão do chat.

conclusãoUso

Estatísticas de utilização do pedido de conclusão.

Nome Tipo Descrição Necessário Predefinição
prompt_tokens integer Número de tokens no prompt. Sim
completion_tokens integer Número de tokens na conclusão gerada. Sim
total_tokens integer Número total de tokens usados na solicitação (prompt + conclusão). Sim

chatCompletionTool

Nome Tipo Descrição Necessário Predefinição
tipo chatCompletionToolType O tipo da ferramenta. Atualmente, apenas function é suportado. Sim
function objeto Sim

Propriedades para função

Description

Name Tipo Description Predefinido
descrição string Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função.

Nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64.

Parâmetros

Nome Tipo Description Predefinido
parâmetros chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte a referência do esquema JSON para obter documentação sobre o formato.

chatCompletionToolType

O tipo da ferramenta. Atualmente, apenas function é suportado.

Descrição: O tipo da ferramenta. Atualmente, apenas function é suportado.

Tipo: string

Predefinido:

Nome do Enum: ChatCompletionToolType

Valores de Enum:

valor Description
function O tipo de ferramenta é função.

chatCompletionChoiceCommon

Nome Tipo Descrição Necessário Predefinição
index integer Não
finish_reason string Não

createTranslationRequest

Pedido de tradução.

Nome Tipo Descrição Necessário Predefinição
ficheiro string O arquivo de áudio a ser traduzido. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

audioResposta

Resposta de tradução ou transcrição quando response_format foi json

Nome Tipo Descrição Necessário Predefinição
texto string Texto traduzido ou transcrito. Sim

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Nome Tipo Descrição Necessário Predefinição
texto string Texto traduzido ou transcrito. Sim
tarefa string Tipo de tarefa de áudio. Não
idioma string Idioma. Não
duration Número Duração. Não
segmentos matriz Não

audioResponseFormat

Define o formato da saída.

Descrição: Define o formato da saída.

Tipo: string

Predefinido:

Valores de Enum:

  • json
  • texto
  • SRT
  • verbose_json
  • VTT

createTranscriptionRequest

Pedido de transcrição.

Nome Tipo Descrição Necessário Predefinição
ficheiro string O objeto do arquivo de áudio a ser transcrito. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
idioma string O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não

audioSegmento

Segmento de transcrição ou tradução.

Nome Tipo Descrição Necessário Predefinição
id integer Identificador de segmento. Não
procurar Número Deslocamento do segmento. Não
iniciar Número O segmento começa a compensar. Não
end Número Compensação final do segmento. Não
texto string Segmentar texto. Não
fichas matriz Fichas do texto. Não
temperatura Número Temperatura. Não
avg_logprob Número Probabilidade média de log. Não
compression_ratio Número Taxa de compressão. Não
no_speech_prob Número Probabilidade de 'não falar'. Não

qualidade de imagem

A qualidade da imagem que será gerada.

Descrição: A qualidade da imagem que será gerada.

Tipo: string

Padrão: padrão

Enum Nome: Qualidade

Valores de Enum:

valor Description
padrão A qualidade padrão cria imagens com qualidade padrão.
ALTA A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem.

imagesResponseFormat

O formato em que as imagens geradas são retornadas.

Descrição: O formato no qual as imagens geradas são retornadas.

Tipo: string

Padrão: url

Nome do Enum: ImagesResponseFormat

Valores de Enum:

valor Description
url O URL que fornece acesso temporário para baixar as imagens geradas.
b64_json As imagens geradas são retornadas como cadeia de caracteres codificada base64.

imageSize

O tamanho das imagens geradas.

Descrição: O tamanho das imagens geradas.

Tipo: string

Padrão: 1024x1024

Nome do Enum: Tamanho

Valores de Enum:

valor Description
1792x1024 O tamanho desejado da imagem gerada é 1792x1024 pixels.
1024x1792 O tamanho desejado da imagem gerada é 1024x1792 pixels.
1024 x 1024 O tamanho desejado da imagem gerada é 1024x1024 pixels.

imageStyle

O estilo das imagens geradas.

Descrição: O estilo das imagens geradas.

Tipo: string

Padrão: vívido

Nome do Enum: Estilo

Valores de Enum:

valor Description
vívido Vivid cria imagens que são hiper-realistas e dramáticas.
naturais Natural cria imagens mais naturais e menos hiper-realistas.

imagemGeraçõesPedido

Nome Tipo Descrição Necessário Predefinição
Prompt string Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4000 caracteres. Sim
n integer O número de imagens a gerar. Não 1
size imageSize O tamanho das imagens geradas. Não 1024 x 1024
response_format imagesResponseFormat O formato em que as imagens geradas são retornadas. Não url
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não padrão
style imageStyle O estilo das imagens geradas. Não vívido

generateImagesResponse

Nome Tipo Descrição Necessário Predefinição
criado integer O carimbo de data/hora unix quando a operação foi criada. Sim
dados matriz Os dados de resultado da operação, se bem-sucedida Sim

imageResult

O url da imagem ou imagem codificada, se bem-sucedida, e um erro de outra forma.

Nome Tipo Descrição Necessário Predefinição
url string O url da imagem. Não
b64_json string A imagem codificada base64 Não
content_filter_results dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. Não
revised_prompt string O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. Não
prompt_filter_results dalleFilterResultados Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

Extensões de conclusão

As extensões de conclusão não fazem parte da versão mais recente do GA da especificação de inferência do plano de dados do Azure OpenAI.

Mensagem de bate-papo

O objeto de mensagem de bate-papo não faz parte da versão mais recente do GA da especificação de inferência do plano de dados do Azure OpenAI.

Conversão de texto em voz

Atualmente, não faz parte da versão mais recente do Azure OpenAI GA da especificação de inferência do plano de dados do Azure OpenAI. Consulte a versão de pré-visualização mais recente para esta funcionalidade.

Próximos passos

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.