Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Este artigo fornece detalhes sobre os endpoints da API REST de inferência para o Azure OpenAI.
API specs
A gestão e interação com modelos e recursos OpenAI do Azure está dividida em três superfícies principais de API:
- Control plane
- Plano de dados - autoria
- Plano de dados - inferência
Cada superfície/especificação API encapsula um conjunto diferente de capacidades do Azure OpenAI. Cada API tem o seu próprio conjunto único de pré-visualização e versões de APIs estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.
Important
Agora existe uma nova API de inferência de pré-visualização. Saiba mais no nosso guia do ciclo de vida da API.
| API | Última versão de pré-visualização | Última versão da GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | A API do plano de controlo é usada para operações como criação de recursos, implementação de modelos e outras tarefas de gestão de recursos de nível superior. O plano de controlo também regula o que é possível fazer com capacidades como Azure Resource Manager, Bicep, Terraform e CLI do Azure. |
| Data plane | v1 preview |
v1 |
Spec files | A API do plano de dados controla as operações de inferência e autoria. |
Authentication
O Azure OpenAI fornece dois métodos para autenticação. Pode usar API Keys ou Microsoft Entra ID.
Autenticação de Chave API: Para este tipo de autenticação, todos os pedidos de API devem incluir a Chave API no
api-keycabeçalho HTTP. O Quickstart fornece orientações sobre como fazer chamadas com este tipo de autenticação.Microsoft Entra ID: Pode autenticar uma chamada API usando um token Microsoft Entra. Os tokens de autenticação são incluídos num pedido como Authorizationcabeçalho. O token fornecido deve ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN. Pode ler o nosso guia prático sobre autenticação com Microsoft Entra ID.
Versionamento da API REST
As APIs dos serviços são versionadas usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de datas YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a versão GA da especificação de inferência do plano de dados OpenAI Azure 2024-10-21.
Se procura documentação sobre a última versão da API de pré-visualização, consulte a API de inferência de planos de dados de pré-visualização mais recente
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | cadeia (de caracteres) url |
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com). Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | ID de implementação do modelo que foi implementado. |
| api-version | consulta | Yes | cadeia (de caracteres) | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia (de caracteres) | Forneça aqui a chave API do Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avisar | String ou array | O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens. Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treino, por isso, se não for especificado um prompt, o modelo gerará como se fosse do início de um novo documento. |
Yes | |
| best_of | número inteiro | Gera best_of completações do lado do servidor e devolve o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver â€" best_of devem ser maiores que n.Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Repita o prompt além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. Por exemplo, pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | número inteiro | Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolverá uma lista dos cinco tokens mais prováveis. A API irá sempre devolver o logprob do token amostrado, pelo que pode haver até logprobs+1 até elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do teu prompt plus max_tokens não pode exceder o comprimento do contexto do modelo. |
No | 16 |
| n | número inteiro | Quantas conclusãos gerar para cada prompt. Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| seed | número inteiro | Se especificado, o nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
No | |
| stop | String ou array | Até quatro sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens. |
No | |
| fluxo | boolean | Se deves reverter o progresso parcial. Se ativados, os tokens serão enviados apenas como eventos enviados pelo servidor apenas por dados à medida que estiverem disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. |
No | False |
| suffix | cadeia (de caracteres) | O sufixo que surge após a conclusão do texto inserido. Este parâmetro é suportado apenas para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No |
Responses
Código de Estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos como os não transmitidos partilham a mesma forma (ao contrário do endpoint do chat). |
Código de Estado: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Obtenha uma representação vetorial de uma dada entrada que possa ser facilmente consumida por modelos e algoritmos de aprendizagem automática.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | cadeia (de caracteres) url |
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com). Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia (de caracteres) | Forneça aqui a chave API do Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados introduzidos | String ou array | Input texto para embed, codificado como uma string ou array de tokens. Para incorporar múltiplas entradas num único pedido, passe um array de strings ou array de tokens. A entrada não deve exceder os tokens máximos de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma string vazia, e qualquer array deve ter 2.048 dimensões ou menos. |
Yes | |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No | |
| input_type | cadeia (de caracteres) | Tipo de entrada de pesquisa de embedding a utilizar | No | |
| encoding_format | cadeia (de caracteres) | O formato para devolver os embeddings. Pode ser qualquer um ou floatbase64outro. Por defeito, é float. |
No | |
| dimensions | número inteiro | O número de dimensões que os embeddings de saída resultantes devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
No |
Responses
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| objecto | cadeia (de caracteres) | Yes | ||
| modelo | cadeia (de caracteres) | Yes | ||
| dados | matriz | Yes | ||
| utilização | objecto | Yes |
Propriedades para uso
prompt_tokens
| Name | Tipo | Description | Default |
|---|---|---|---|
| prompt_tokens | número inteiro |
total_tokens
| Name | Tipo | Description | Default |
|---|---|---|---|
| total_tokens | número inteiro |
Código de Estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objecto |
Examples
Example
Devolva os embeddings para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Respostas: Código de Estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Cria uma conclusão para a mensagem do chat
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | cadeia (de caracteres) url |
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com). Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | ID de implementação do modelo que foi implementado. |
| api-version | consulta | Yes | cadeia (de caracteres) | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia (de caracteres) | Forneça aqui a chave API do Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
No | 1 |
| fluxo | boolean | Se definido, serão enviados deltas parciais de mensagem, como no ChatGPT. Os tokens serão enviados apenas como eventos enviados pelo servidor apenas com dados à medida que estiverem disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. |
No | False |
| stop | String ou array | Até quatro sequências em que a API deixa de gerar mais tokens. |
No | |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia os tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. |
No | None |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. | Yes | |
| data_sources | matriz | As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional é compatível apenas com o Azure OpenAI. |
No | |
| logprobs | boolean | Se deve devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, devolve as probabilidades logarítmicas de cada token de saída devolvido no content de message. |
No | False |
| top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis a serem retornados em cada posição do token, cada um com uma probabilidade logarítmica associada.
logprobs deve ser definido para true se este parâmetro for utilizado. |
No | |
| n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | No | True |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes do que gpt-3.5-turbo-1106.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs, que garante que o modelo corresponde ao esquema JSON fornecido por ti.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | número inteiro | Esta funcionalidade está em Beta. Se especificado, o nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isto para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. São suportadas um máximo de 128 funções. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se houver ferramentas presentes. |
No | |
| function_call | string ou chatCompletionFunctionCallOption | Descontinuado em favor de tool_choice.Controla qual (se existe) função é chamada pelo modelo. none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.none é o padrão quando não há funções presentes.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Descontinuado em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No |
Responses
Código de Estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Código de Estado: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão baseada nos dados do Azure Search e na identidade gerida atribuída pelo sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão baseada nos dados do vetor de pesquisa do Azure, na mensagem do assistente anterior e na identidade gerida atribuída pelo utilizador.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcreve o áudio para a língua de entrada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | cadeia (de caracteres) url |
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com). Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | ID de implementação do modelo de voz para texto. Para informações sobre modelos suportados, veja [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | consulta | Yes | cadeia (de caracteres) | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia (de caracteres) | Forneça aqui a chave API do Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O objeto do ficheiro áudio para transcrever. | Yes | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
| linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 irá melhorar a precisão e a latência. | No |
Responses
Código de Estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResposta ou áudioResposta Verbosa | |
| text/plain | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Respostas: Código de Estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcreve e traduz áudio de entrada para texto em inglês.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | cadeia (de caracteres) url |
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com). Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | ID de implementação do modelo whisper que foi implementado. Para informações sobre modelos suportados, veja [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | consulta | Yes | cadeia (de caracteres) | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia (de caracteres) | Forneça aqui a chave API do Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O ficheiro de áudio para traduzir. | Yes | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O enunciado deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
Responses
Código de Estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResposta ou áudioResposta Verbosa | |
| text/plain | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Gera um lote de imagens a partir de uma legenda de texto numa dada implementação do modelo dall-e
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | cadeia (de caracteres) url |
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com). Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | ID de implementação do modelo dall-e que foi implementado. |
| api-version | consulta | Yes | cadeia (de caracteres) | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia (de caracteres) | Forneça aqui a chave API do Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. | Yes | |
| n | número inteiro | O número de imagens a gerar. | No | 1 |
| size | imageSize | O tamanho das imagens geradas. | No | 1024x1024 |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são devolvidas. | No | url |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | norma |
| style | imageStyle | O estilo das imagens geradas. | No | vivid |
Responses
Código de Estado: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de Estado: padrão
Descrição: Ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | error | No |
errorBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | cadeia (de caracteres) | No | ||
| mensagem | cadeia (de caracteres) | No |
erro
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| param | cadeia (de caracteres) | No | ||
| tipo | cadeia (de caracteres) | No | ||
| inner_error | innerError | Erro interno com detalhes adicionais. | No |
innerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | contentFilterPromptResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação. | No |
innerErrorCode
Códigos de erro para o objeto de erro interno.
Descrição: Códigos de erro para o objeto de erro interno.
Type: string
Default:
Nome Enum: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | O prompt violou uma de mais regras de filtro de conteúdo. |
dalleErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | dalleError | No |
dalleError
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| param | cadeia (de caracteres) | No | ||
| tipo | cadeia (de caracteres) | No | ||
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | No |
dalleInnerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | dalleFilterResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação. | No | |
| revised_prompt | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, caso tenha havido alguma revisão ao prompt. | No |
contentFilterResultBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | cadeia (de caracteres) | No |
contentFilterDetectedResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citation | objecto | No |
Propriedades para citação
URL
| Name | Tipo | Description | Default |
|---|---|---|---|
| URL | cadeia (de caracteres) |
licença
| Name | Tipo | Description | Default |
|---|---|---|---|
| licença | cadeia (de caracteres) |
contentFilterResultsBase
Informação sobre os resultados do filtro de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| erro | errorBase | No |
contentFilterPromptResults
Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| erro | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre texto de terceiros e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| erro | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Resultados de filtragem de conteúdo para um único prompt no pedido.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | número inteiro | No | ||
| content_filter_results | contentFilterPromptResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação. | No |
promptFilterResults
Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas.
Nenhuma propriedade definida para este componente.
dalleContentFilterResults
Informação sobre os resultados do filtro de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
No | 1 |
| fluxo | boolean | Se definido, serão enviados deltas parciais de mensagem, como no ChatGPT. Os tokens serão enviados apenas como eventos enviados pelo servidor apenas com dados à medida que estiverem disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. |
No | False |
| stop | String ou array | Até quatro sequências em que a API deixa de gerar mais tokens. | No | |
| max_tokens | número inteiro | O número máximo de tokens permitido para a resposta gerada. Por defeito, o número de tokens que o modelo pode devolver será (4096 - tokens de prompt). Este valor está agora obsoleto em favor de max_completion_tokens, e não é compatível com modelos da série O1. |
No | 4096 |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. | No | 0 |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. | No | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. | No | |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar o Azure OpenAI a monitorizar e detetar abusos. | No |
createCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avisar | String ou array | O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens. Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treino, por isso, se não for especificado um prompt, o modelo gerará como se fosse do início de um novo documento. |
Yes | |
| best_of | número inteiro | Gera best_of completações do lado do servidor e devolve o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver â€" best_of devem ser maiores que n.Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Repita o prompt além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. Por exemplo, pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | número inteiro | Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolverá uma lista dos cinco tokens mais prováveis. A API irá sempre devolver o logprob do token amostrado, pelo que pode haver até logprobs+1 até elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do teu prompt plus max_tokens não pode exceder o comprimento do contexto do modelo. |
No | 16 |
| n | número inteiro | Quantas conclusãos gerar para cada prompt. Nota: Como este parâmetro gera muitas conclusãos, pode rapidamente consumir a sua quota de tokens. Use com cuidado e certifique-se de que tem definições razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| seed | número inteiro | Se especificado, o nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
No | |
| stop | String ou array | Até quatro sequências em que a API deixa de gerar mais tokens. O texto devolvido não conterá a sequência de paragens. |
No | |
| fluxo | boolean | Se deves reverter o progresso parcial. Se ativados, os tokens serão enviados apenas como eventos enviados pelo servidor apenas por dados à medida que estiverem disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. |
No | False |
| suffix | cadeia (de caracteres) | O sufixo que surge após a conclusão do texto inserido. Este parâmetro é suportado apenas para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No |
createCompletionResponse
Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos como os não transmitidos partilham a mesma forma (ao contrário do endpoint do chat).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia (de caracteres) | Um identificador único para a completação. | Yes | |
| choices | matriz | A lista de escolhas de conclusão que o modelo gerou para o prompt de entrada. | Yes | |
| created | número inteiro | O carimbo temporal do Unix (em segundos) de quando a conclusão foi criada. | Yes | |
| modelo | cadeia (de caracteres) | O modelo utilizado para a conclusão. | Yes | |
| prompt_filter_results | promptFilterResults | Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas. | No | |
| system_fingerprint | cadeia (de caracteres) | Esta impressão digital representa a configuração do backend com que o modelo corre. Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo. |
No | |
| objecto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Yes | |
| utilização | completionUsage | Estatísticas de utilização para o pedido de conclusão. | No |
createChatCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Geralmente recomendamos alterar isto ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem o top 10% massa de probabilidade são considerados. Geralmente recomendamos alterar isto ou temperature , mas não ambos. |
No | 1 |
| fluxo | boolean | Se definido, serão enviados deltas parciais de mensagem, como no ChatGPT. Os tokens serão enviados apenas como eventos enviados pelo servidor apenas com dados à medida que estiverem disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. |
No | False |
| stop | String ou array | Até quatro sequências em que a API deixa de gerar mais tokens. |
No | |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em que aparecem ou não no texto até agora, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| logit_bias | objecto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia os tokens (especificados pelo seu ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará consoante o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar numa proibição ou na seleção exclusiva do token relevante. |
No | None |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. | Yes | |
| data_sources | matriz | As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional é compatível apenas com o Azure OpenAI. |
No | |
| logprobs | boolean | Se deve devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, devolve as probabilidades logarítmicas de cada token de saída devolvido no content de message. |
No | False |
| top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis a serem retornados em cada posição do token, cada um com uma probabilidade logarítmica associada.
logprobs deve ser definido para true se este parâmetro for utilizado. |
No | |
| n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante a utilização da ferramenta. | No | True |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes do que gpt-3.5-turbo-1106.Definir para { "type": "json_schema", "json_schema": {...} } ativa ativa Structured Outputs, que garante que o modelo corresponde ao esquema JSON fornecido por ti.A definição para { "type": "json_object" } ativa o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, deve também instruir o modelo a produzir JSON por si próprio através de uma mensagem do sistema ou do utilizador. Sem isto, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite dos tokens, resultando num pedido de longa duração e aparentemente "preso". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | número inteiro | Esta funcionalidade está em Beta. Se especificado, o nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que pedidos repetidos com os mesmos seed parâmetros e devolvam o mesmo resultado.O determinismo não é garantido, e deves consultar o system_fingerprint parâmetro de resposta para monitorizar as alterações no backend. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isto para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. São suportadas um máximo de 128 funções. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se houver ferramentas presentes. |
No | |
| function_call | string ou chatCompletionFunctionCallOption | Descontinuado em favor de tool_choice.Controla qual (se existe) função é chamada pelo modelo. none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.none é o padrão quando não há funções presentes.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Descontinuado em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No |
chatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON.
Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
chatCompletionFunctionCallOption
Especificar uma função particular via {"name": "my_function"} obriga o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. | Yes |
chatCompletionRequestMessage
Este componente pode ser um dos seguintes:
chatCompletionRequestSystemMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do sistema. | Yes | |
| função | enumeração | O papel do autor das mensagens, neste caso system.Valores possíveis: sistema |
Yes | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | No |
chatCompletionRequestUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do utilizador. |
Yes | |
| função | enumeração | O papel do autor das mensagens, neste caso user.Valores possíveis: utilizador |
Yes | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | No |
chatCompletionRequestAssistantMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado. |
No | |
| refusal | cadeia (de caracteres) | A mensagem de recusa do assistente. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso assistant.Valores possíveis: assistente |
Yes | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece a informação do modelo para diferenciar entre participantes do mesmo papel. | No | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de funções. | No | |
| function_call | objecto | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. |
No |
Propriedades para function_call
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. |
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. |
chatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | enumeração | O papel do autor das mensagens, neste caso tool.Valores possíveis: ferramenta |
Yes | |
| conteúdo | String ou array | O conteúdo da mensagem da ferramenta. | Yes | |
| tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está a responder. | Yes |
chatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: função |
Yes | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem funcional. | Yes | |
| name | cadeia (de caracteres) | O nome da função a chamar. | Yes |
chatCompletionRequestSystemMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestAssistantMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | A parte do tipo de conteúdo. Valores possíveis: texto |
Yes | |
| enviar SMS | cadeia (de caracteres) | O conteúdo do texto. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | A parte do tipo de conteúdo. Valores possíveis: image_url |
Yes | |
| image_url | objecto | Yes |
Propriedades para image_url
url
| Name | Tipo | Description | Default |
|---|---|---|---|
| url | cadeia (de caracteres) | Ou uma URL da imagem ou os dados da imagem codificada base64. |
detail
| Name | Tipo | Description | Default |
|---|---|---|---|
| detail | cadeia (de caracteres) | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | A parte do tipo de conteúdo. Valores possíveis: recusa |
Yes | |
| refusal | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Yes |
azureChatExtensionConfiguration
Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isto será usado por um chat completions solicitam que devam usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureChatExtensionType
Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.
Description: Uma representação de dados de configuração para uma única extensão de chat OpenAI Azure. Isto será usado por um pedido de conclusão de chat que deverá usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI.
Type: string
Default:
Nome do Enum: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI. |
| azure_cosmos_db | Representa a utilização do Azure Cosmos DB como extensão de chat do Azure OpenAI. |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search quando o usa como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isto será usado por um chat completions solicitam que devam usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI. | No |
azureSearchChatExtensionParameters
Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManaged IdentityAuthenticationOptions | Yes | ||
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | No | |
| in_scope | boolean | Se as consultas devem ser restringidas ao uso de dados indexados. | No | |
| strictness | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | No | |
| role_information | cadeia (de caracteres) | Dê ao modelo instruções sobre como deve comportar-se e qualquer contexto que deve referir ao gerar uma resposta. Podes descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para isso, e conta para o limite total de tokens. | No | |
| ponto final | cadeia (de caracteres) | O caminho de endpoint absoluto para o recurso do Azure Search usar. | Yes | |
| index_name | cadeia (de caracteres) | O nome do índice a usar está disponível no recurso Azure Search referenciado. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. | No | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao utilizá-lo como uma extensão de chat do Azure OpenAI. | No | |
| semantic_configuration | cadeia (de caracteres) | A configuração semântica adicional para a consulta. | No | |
| filtro | cadeia (de caracteres) | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | No | |
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao utilizá-lo como uma extensão de chat do Azure OpenAI.
Description: O tipo de consulta de recuperação de pesquisa Azure que deve ser executada ao utilizá-la como uma extensão de chat Azure OpenAI.
Type: string
Default:
Nome do Enum: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Representa o parser de consultas simples e predefinido. |
| semantic | Representa o parser de consultas semânticas para modelação semântica avançada. |
| vetor | Representa a pesquisa vetorial sobre dados calculados. |
| vector_simple_hybrid | Representa uma combinação da estratégia de consulta simples com dados vetoriais. |
| vector_semantic_hybrid | Representa uma combinação de pesquisa semântica e consulta de dados vetoriais. |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para Azure Cosmos DB quando o usas como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isto será usado por um chat completions solicitam que devam usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. A utilização desta configuração é compatível apenas com o Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parâmetros a usar ao configurar extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parâmetros a usar ao configurar extensões de chat do Azure OpenAI On Your Data ao utilizar o Azure Cosmos DB para MongoDB vCore.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de ligação. | Yes | |
| top_n_documents | número inteiro | O número superior configurado de documentos a apresentar para a consulta configurada. | No | |
| in_scope | boolean | Se as consultas devem ser restringidas ao uso de dados indexados. | No | |
| strictness | número inteiro | A rigidez configurada do filtro de relevância de pesquisa. Quanto maior a rigor, maior a precisão mas menor a recordação da resposta. | No | |
| role_information | cadeia (de caracteres) | Dê ao modelo instruções sobre como deve comportar-se e qualquer contexto que deve referir ao gerar uma resposta. Podes descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para isso, e conta para o limite total de tokens. | No | |
| database_name | cadeia (de caracteres) | O nome da base de dados MongoDB vCore para usar com o Azure Cosmos DB. | Yes | |
| container_name | cadeia (de caracteres) | O nome do contentor de recursos do Azure Cosmos DB. | Yes | |
| index_name | cadeia (de caracteres) | O nome do índice MongoDB vCore para usar com Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Definições opcionais para controlar como os campos são processados ao usar um recurso Azure Cosmos DB configurado. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Definições opcionais para controlar como os campos são processados ao usar um recurso Azure Cosmos DB configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| title_field | cadeia (de caracteres) | O nome do campo índice a usar como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo índice a usar como URL. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo índice a usar como caminho de ficheiro. | No | |
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
onYourDataAuthenticationOptions
As opções de autenticação para Azure OpenAI nos seus dados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataAuthenticationType
Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.
Description: Os tipos de autenticação suportados com Azure OpenAI On Your Data.
Type: string
Default:
Nome Enum: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autenticação via chave API. |
| connection_string | Autenticação via cadeia de ligação. |
| system_assigned_managed_identity | Autenticação via identidade gerida atribuída pelo sistema. |
| user_assigned_managed_identity | Autenticação via identidade gerida atribuída pelo utilizador. |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes | |
| chave | cadeia (de caracteres) | A chave da API a usar para autenticação. | No |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de ligação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes | |
| connection_string | cadeia (de caracteres) | A cadeia de ligação a usar para autenticação. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao utilizar uma identidade gerida atribuída pelo sistema.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerida atribuída pelo utilizador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes | |
| managed_identity_resource_id | cadeia (de caracteres) | O ID de recurso da identidade gerida atribuída pelo utilizador a usar para autenticação. | No |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para Azure OpenAI On Your Data com pesquisa vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para uso com vector search. |
Yes |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para pesquisa vetorial.
Description: Representa as fontes disponíveis Azure o OpenAI On Your Data pode usar para configurar a vetorização dos dados para uso com
vector search.
Type: string
Default:
Nome Enum: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| ponto final | Representa a vetorização realizada por chamadas de serviço público para um modelo de embedding Azure OpenAI. |
| deployment_name | Representa o nome de implementação do modelo Ada a usar. Esta implementação do modelo deve estar no mesmo recurso Azure OpenAI, mas O On Your Data irá usar este modelo para a implementação através de uma chamada interna em vez de pública, o que permite o vector Procura mesmo em redes privadas. |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, que se baseia num nome de implementação de modelo interno de embeddings no mesmo recurso Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para uso com vector search. |
Yes | |
| deployment_name | cadeia (de caracteres) | Especifica o nome da implementação do modelo a usar para vetorização. Esta implementação do modelo deve ser feita no mesmo recurso Azure OpenAI, mas a On Your Data irá usar esta implementação do modelo através de uma chamada interna em vez de pública, o que permite a pesquisa vetorial mesmo em redes privadas. | No |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar pesquisa vetorial, que se baseia numa chamada pública de endpoint Azure OpenAI para embeddings.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização dos dados para uso com vector search. |
Yes | |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API. | No | |
| ponto final | cadeia (de caracteres) | Especifica o ponto final a usar para vetorização. Este endpoint deve estar no mesmo recurso Azure OpenAI, mas o On Your Data usará este endpoint através de uma chamada interna em vez de pública, o que permite a pesquisa vetorial mesmo em redes privadas. | No |
azureChatExtensionsMessageContext
Uma representação da informação adicional de contexto disponível quando extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Esta informação de contexto só é preenchida quando se utiliza um pedido OpenAI do Azure configurado para usar uma extensão correspondente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citations | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | No | |
| intenção | cadeia (de caracteres) | A intenção detetada do histórico da conversa, usada para passar para o turno seguinte para manter o contexto. | No |
citation
Informação de citação para uma mensagem de resposta de conclusão de chat.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Yes | |
| title | cadeia (de caracteres) | O título da citação. | No | |
| url | cadeia (de caracteres) | O URL da citação. | No | |
| filepath | cadeia (de caracteres) | O caminho do ficheiro da citação. | No | |
| chunk_id | cadeia (de caracteres) | A identificação do bloco da citação. | No |
chatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. | Yes | |
| tipo | toolCallType | O tipo de chamada da ferramenta, neste caso function. |
Yes | |
| função | objecto | A função que o modelo chamou. | Yes |
Propriedades para a função
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. |
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. |
toolCallType
O tipo de chamada da ferramenta, neste caso function.
Descrição: O tipo da chamada de ferramenta, neste caso function.
Type: string
Default:
Nome Enum: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| função | O tipo de chamada de ferramenta é função. |
chatCompletionRequestMessageTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está a responder. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | No |
chatCompletionRequestMessageFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: função |
No | |
| name | cadeia (de caracteres) | O conteúdo da mensagem. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | No |
createChatCompletionResponse
Representa uma resposta de conclusão de chat devolvida pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia (de caracteres) | Um identificador único para a conclusão da conversa. | Yes | |
| prompt_filter_results | promptFilterResults | Filtrar conteúdo resulta em zero ou mais prompts no pedido. Num pedido de streaming, os resultados de diferentes prompts podem chegar em horários distintos ou em ordens distintas. | No | |
| choices | matriz | Uma lista de opções para completar o chat. Pode ser mais do que um se n for maior que 1. |
Yes | |
| created | número inteiro | O carimbo temporal do Unix (em segundos) de quando a conclusão do chat foi criada. | Yes | |
| modelo | cadeia (de caracteres) | O modelo usado para completar o chat. | Yes | |
| system_fingerprint | cadeia (de caracteres) | Esta impressão digital representa a configuração do backend com que o modelo corre. Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo. |
No | |
| objecto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| utilização | completionUsage | Estatísticas de utilização para o pedido de conclusão. | No |
createChatCompletionStreamResponse
Representa um segmento transmitido de uma resposta de conclusão de chat devolvida pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia (de caracteres) | Um identificador único para a conclusão da conversa. Cada bloco tem o mesmo ID. | Yes | |
| choices | matriz | Uma lista de opções para completar o chat. Pode conter mais do que um elemento se n for maior que 1. |
Yes | |
| created | número inteiro | O carimbo temporal do Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo temporal. | Yes | |
| modelo | cadeia (de caracteres) | O modelo para gerar a completude. | Yes | |
| system_fingerprint | cadeia (de caracteres) | Esta impressão digital representa a configuração do backend com que o modelo corre. Pode ser usado em conjunto com o seed parâmetro de pedido para perceber quando foram feitas alterações no backend que possam afetar o determinismo. |
No | |
| objecto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Um delta de conclusão do chat gerado pelas respostas do modelo em streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem do bloco. | No | |
| function_call | objecto | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. |
No | |
| tool_calls | matriz | No | ||
| função | enumeração | O papel do autor desta mensagem. Valores possíveis: sistema, utilizador, assistente, ferramenta |
No | |
| refusal | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | No |
Propriedades para function_call
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. |
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. |
chatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | número inteiro | Yes | ||
| id | cadeia (de caracteres) | O ID da chamada de ferramenta. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function é suportado.Valores possíveis: função |
No | |
| função | objecto | No |
Propriedades para a função
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. |
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. |
chatCompletionStreamOptions
Opções para resposta ao streaming. Só define isto quando defines stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se ativado, um segmento adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de utilização do token para todo o pedido, e o choices campo será sempre um array vazio. Todos os outros chunks também incluirão um usage campo, mas com valor nulo. |
No |
chatCompletionChoiceLogProbs
Regista a informação de probabilidade da escolha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo de mensagens com informação de probabilidade logarítmica. | Yes | |
| refusal | matriz | Uma lista de tokens de recusa de mensagens com informação de probabilidade logarítmica. | No |
chatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| token | cadeia (de caracteres) | The token. | Yes | |
| logprob | number | A probabilidade logarítmica deste token. | Yes | |
| bytes | matriz | Uma lista de inteiros que representa a representação UTF-8 bytes do token. Útil em casos em que os caracteres são representados por múltiplos tokens e as suas representações em bytes têm de ser combinadas para gerar a representação correta do texto. Pode ser null , se não houver representação em bytes para o token. |
Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e a sua probabilidade logarítmica, nesta posição do token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. |
Yes |
chatCompletionResponseMessage
Uma mensagem de conclusão do chat gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | chatCompletionResponseMessageRole | O papel do autor da mensagem de resposta. | Yes | |
| refusal | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Yes | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Yes | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de funções. | No | |
| function_call | chatCompletionFunctionCall | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo. |
No | |
| contexto | azureChatExtensionsMessageContext | Uma representação da informação adicional de contexto disponível quando estão envolvidas extensões de chat do Azure OpenAI na geração de uma resposta correspondente de conclusão de chat. Esta informação de contexto só é preenchida quando usando um pedido Azure OpenAI configurado para usar uma extensão correspondente. |
No |
chatCompletionResponseMessageRole
O papel do autor da mensagem de resposta.
Descrição: O papel do autor da mensagem de resposta.
Type: string
Default:
Enum Values:
- assistente
chatCompletionToolChoiceOption
Controla qual (se houver) ferramenta chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo tem de chamar uma ou mais ferramentas. Especificar uma ferramenta específica obriga {"type": "function", "function": {"name": "my_function"}} o modelo a chamar essa ferramenta.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se houver ferramentas presentes.
Este componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function é suportado.Valores possíveis: função |
Yes | |
| função | objecto | Yes |
Propriedades para a função
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. |
ParallelToolCalls
Se deve ativar a chamada paralela de funções durante a utilização da ferramenta.
Nenhuma propriedade definida para este componente.
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de funções.
Nenhuma propriedade definida para este componente.
chatCompletionFunctionCall
Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, tal como gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a chamar. | Yes | |
| arguments | cadeia (de caracteres) | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valida os argumentos no teu código antes de chamar a tua função. | Yes |
completionUsage
Estatísticas de utilização para o pedido de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | número inteiro | Número de tokens no prompt. | Yes | |
| completion_tokens | número inteiro | Número de tokens na conclusão gerada. | Yes | |
| total_tokens | número inteiro | Número total de tokens usados no pedido (prompt + conclusão). | Yes | |
| completion_tokens_details | objecto | Divisão dos tokens usados numa conclusão. | No |
Propriedades para completion_tokens_details
reasoning_tokens
| Name | Tipo | Description | Default |
|---|---|---|---|
| reasoning_tokens | número inteiro | Tokens gerados pelo modelo para raciocínio. |
chatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function é suportado.Valores possíveis: função |
Yes | |
| função | FunctionObject | Yes |
FunctionParameters
Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON. Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para este componente.
FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que a função aceita, descritos como um objeto de Esquema JSON.
Consulte o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No | |
| strict | boolean | Se deve permitir a adesão estrita ao esquema ao gerar a chamada de função. Se definido como verdadeiro, o modelo seguirá exatamente o esquema definido no parameters campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. |
No | False |
ResponseFormatText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: textValores possíveis: texto |
Yes |
ResponseFormatJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: json_objectValores possíveis: json_object |
Yes |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.
Nenhuma propriedade definida para este componente.
ResponseFormatJsonSchema
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: json_schemaValores possíveis: json_schema |
Yes | |
| json_schema | objecto | Yes |
Propriedades para json_schema
description
| Name | Tipo | Description | Default |
|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder nesse formato. |
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia (de caracteres) | O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
esquema
| Name | Tipo | Description | Default |
|---|---|---|---|
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. |
strict
| Name | Tipo | Description | Default |
|---|---|---|---|
| strict | boolean | Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo seguirá sempre o esquema exato definido no schema campo. Apenas um subconjunto do esquema JSON é suportado quando strict é true. |
False |
chatCompletionChoiceCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | número inteiro | No | ||
| finish_reason | cadeia (de caracteres) | No |
createTranslationRequest
Translation request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O ficheiro de áudio para traduzir. | Yes | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O enunciado deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format era json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Yes |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Yes | |
| tarefa | cadeia (de caracteres) | Tipo de tarefa áudio. | No | |
| linguagem | cadeia (de caracteres) | Language. | No | |
| duration | number | Duration. | No | |
| segments | matriz | No |
audioResponseFormat
Define o formato da saída.
Descrição: Define o formato da saída.
Type: string
Default:
Enum Values:
- json
- enviar SMS
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O objeto do ficheiro áudio para transcrever. | Yes | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento áudio anterior. O prompt deve corresponder à linguagem do áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 tornam-na mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
| linguagem | cadeia (de caracteres) | A linguagem do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 irá melhorar a precisão e a latência. | No |
audioSegment
Segmento de transcrição ou tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | número inteiro | Segment identifier. | No | |
| seek | number | Deslocamento do segmento. | No | |
| start | number | Início do segmento deslocado. | No | |
| end | number | Deslocamento no final do segmento. | No | |
| enviar SMS | cadeia (de caracteres) | Segment text. | No | |
| tokens | matriz | Símbolos do texto. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Probabilidade logarítmica média. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Probabilidade de no speech. |
No |
imageQuality
A qualidade da imagem que será gerada.
Descrição: A qualidade da imagem que será gerada.
Type: string
Default: standard
Nome Enum: Quality
Enum Values:
| Value | Description |
|---|---|
| norma | A qualidade padrão cria imagens com qualidade padrão. |
| hd | A qualidade HD cria imagens com detalhes mais finos e maior consistência ao longo da imagem. |
imagesResponseFormat
O formato em que as imagens geradas são devolvidas.
Descrição: O formato em que as imagens geradas são devolvidas.
Type: string
Default: url
Nome Enum: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | O URL que fornece acesso temporário para descarregar as imagens geradas. |
| b64_json | As imagens geradas são devolvidas como strings codificadas em base64. |
imageSize
O tamanho das imagens geradas.
Descrição: O tamanho das imagens geradas.
Type: string
Default: 1024x1024
Nome Enum: Tamanho
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | O tamanho desejado da imagem gerada é 1792x1024 píxeis. |
| 1024x1792 | O tamanho desejado da imagem gerada é 1024x1792 píxeis. |
| 1024x1024 | O tamanho desejado da imagem gerada é 1024x1024 píxeis. |
imageStyle
O estilo das imagens geradas.
Descrição: O estilo das imagens geradas.
Type: string
Default: vivid
Nome Enum: Style
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid cria imagens hiper-realistas e dramáticas. |
| natural | Natural cria imagens mais naturais e menos hiper-realistas. |
imageGenerationsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. | Yes | |
| n | número inteiro | O número de imagens a gerar. | No | 1 |
| size | imageSize | O tamanho das imagens geradas. | No | 1024x1024 |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são devolvidas. | No | url |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | norma |
| style | imageStyle | O estilo das imagens geradas. | No | vivid |
generateImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | número inteiro | O carimbo temporal do unix quando a operação foi criada. | Yes | |
| dados | matriz | Os dados de resultado da operação, se bem-sucedidos | Yes |
imageResult
O URL da imagem ou imagem codificada se for bem-sucedido, e um erro caso contrário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| url | cadeia (de caracteres) | O URL da imagem. | No | |
| b64_json | cadeia (de caracteres) | A imagem codificada base64 | No | |
| content_filter_results | dalleContentFilterResults | Informação sobre os resultados do filtro de conteúdo. | No | |
| revised_prompt | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, caso tenha havido alguma revisão ao prompt. | No | |
| prompt_filter_results | dalleFilterResults | Informação sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, self_harm), se foi detetada, bem como o nível de gravidade (escala very_low, baixa, média, alta que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrada ou não. Informação sobre conteúdos de jailbreak e palavrões, se foram detetados e se foram filtrados ou não. E informações sobre a lista de clientes bloqueados, se foi filtrada e o seu identificação. | No |
Completions extensions
As extensões de completions não fazem parte da versão mais recente do GA da especificação de inferência do plano de dados do Azure OpenAI.
Chatmessage
O objeto de mensagem Chat não faz parte da versão mais recente de GA da especificação de inferência do plano de dados do Azure OpenAI.
Texto para fala (Pré-visualização)
Atualmente, não faz parte da versão mais recente Azure OpenAI GA da especificação de inferência de planos de dados do Azure OpenAI. Consulte a versão mais recente prévia para esta funcionalidade.
Next steps
Aprenda sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam Azure OpenAI.