Partilhar via


Azure OpenAI (Pré-visualização)

Integre facilmente as capacidades de inteligência artificial de ponta do Azure OpenAI nos seus fluxos de trabalho

Este conector está disponível nos seguintes produtos e regiões:

Serviço Class Regiões
Estúdio Copiloto Premium Todas as regiões do Power Automatic , exceto as seguintes:
     - Governo dos EUA (CCG)
     - Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Aplicações Lógicas Standard Todas as regiões do Logic Apps , exceto as seguintes:
     - Regiões do Azure Government
     - Regiões do Azure China
     - Departamento de Defesa dos EUA (DoD)
Aplicações Power Premium Todas as regiões do Power Apps , exceto as seguintes:
     - Governo dos EUA (CCG)
     - Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Automatize o poder Premium Todas as regiões do Power Automatic , exceto as seguintes:
     - Governo dos EUA (CCG)
     - Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Contato
Nome Microsoft
URL https://support.microsoft.com
Metadados do conector
Editora Microsoft
Sítio Web https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Política de privacidade https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Categorias IA; Inteligência de Negócios

A criar uma ligação

O conector suporta os seguintes tipos de autenticação:

Chave da API Forneça o nome do recurso do Azure OpenAI e a chave da API para acessar seu Azure OpenAI que hospeda o Modelo de IA. Todas as regiões Compartilhável
Identidade gerenciada de aplicativos lógicos Criar uma conexão usando uma identidade gerenciada do LogicApps Apenas LOGICAPPS Compartilhável
Padrão [DEPRECATED] Esta opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. Todas as regiões Não compartilhável

Chave de API

ID de autenticação: keyBasedAuth

Aplicável: Todas as regiões

Forneça o nome do recurso do Azure OpenAI e a chave da API para acessar seu Azure OpenAI que hospeda o Modelo de IA.

Esta é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a Visão geral de conectores para aplicativos de tela - Power Apps | Documentos Microsoft

Nome Tipo Description Obrigatório
Nome do recurso do Azure OpenAI cadeia (de caracteres) O nome do recurso OpenAI do Azure que hospeda o modelo de IA Verdade
Chave da API do Azure OpenAI securestring A chave de API para acessar o recurso OpenAI do Azure que hospeda o modelo de IA Verdade
URL do ponto de extremidade da Pesquisa Cognitiva do Azure cadeia (de caracteres) A URL do ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados
Chave da API de Pesquisa Cognitiva do Azure securestring A chave da API para acessar o ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados

Identidade gerenciada de aplicativos lógicos

ID de autenticação: managedIdentityAuth

Aplicável: apenas LOGICAPPS

Criar uma conexão usando uma identidade gerenciada do LogicApps

Esta é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a Visão geral de conectores para aplicativos de tela - Power Apps | Documentos Microsoft

Nome Tipo Description Obrigatório
Identidade gerenciada do LogicApps managedIdentity Entrar com uma identidade gerenciada de aplicativos lógicos Verdade
Nome do recurso do Azure OpenAI cadeia (de caracteres) O nome do recurso OpenAI do Azure que hospeda o modelo de IA Verdade

Padrão [DEPRECATED]

Aplicável: Todas as regiões

Esta opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.

Esta conexão não é compartilhável. Se o aplicativo avançado for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Nome Tipo Description Obrigatório
Nome do recurso do Azure OpenAI cadeia (de caracteres) O nome do recurso OpenAI do Azure que hospeda o modelo de IA Verdade
Chave da API do Azure OpenAI securestring A chave de API para acessar o recurso OpenAI do Azure que hospeda o modelo de IA Verdade
URL do ponto de extremidade da Pesquisa Cognitiva do Azure cadeia (de caracteres) A URL do ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados
Chave da API de Pesquisa Cognitiva do Azure securestring A chave da API para acessar o ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados

Limites de Limitação

Name Chamadas Período de Renovação
Chamadas de API por conexão 1000 60 segundos

Ações

Cria uma conclusão para a mensagem de chat

Cria uma conclusão para a mensagem de chat

Obtenha várias incorporações

Obtenha representações vetoriais de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de aprendizado de máquina

Obter uma incorporação

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina

Usando extensões para criar uma conclusão para mensagens de bate-papo

Usando extensões para criar uma conclusão para mensagens de bate-papo

Cria uma conclusão para a mensagem de chat

Cria uma conclusão para a mensagem de chat

Parâmetros

Name Chave Necessário Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

temperatura
temperature number

Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos.

top_p
top_p number

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos.

fluxo
stream boolean

Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.

pare
stop array of string

Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada.

máximo de tokens
max_tokens integer

O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt).

penalização por presença
presence_penalty number

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.

penalização de frequência
frequency_penalty number

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.

logit_bias
logit_bias object

Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

utilizador
user string

Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos.

função
role True string

O papel do autor das mensagens.

conteúdo
content True string

Uma matriz de partes de conteúdo com um tipo definido, cada uma pode ser do tipo text.

tipo
type True string

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

melhores_n_documentos
top_n_documents integer

O número superior configurado de documentos a serem apresentados para a consulta configurada.

em_escopo
in_scope boolean

Se as consultas devem ser restritas ao uso de dados indexados.

rigor
strictness integer

O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta.

informação sobre o cargo
role_information string

Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens.

nome_do_índice
index_name True string

O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado.

campo_título
title_field string

O nome do campo de índice a ser usado como título.

campo_url
url_field string

O nome do campo de índice a ser usado como URL.

campo_caminho_do_ficheiro
filepath_field string

O nome do campo de índice a ser usado como um caminho de arquivo.

campos_de_conteúdo
content_fields array of string

Os nomes dos campos de índice que devem ser tratados como conteúdo.

separador_de_campos_de_conteúdo
content_fields_separator string

O padrão separador que os campos de conteúdo devem usar.

campos vetoriais
vector_fields array of string

Os nomes dos campos que representam dados vetoriais.

tipo_de_consulta
query_type string

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

configuração semântica
semantic_configuration string

A configuração semântica adicional para a consulta.

filtro
filter string

Filtro de pesquisa.

tipo
type string

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.

nome_da_implementação
deployment_name True string

Especifica o nome da implantação do modelo a utilizar para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas.

n
n integer

Quantas opções de conclusão de chat gerar para cada mensagem de entrada.

seed
seed integer

Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado. O determinismo não é garantido e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end.

Logprobs
logprobs boolean

Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. Esta opção não está atualmente disponível no gpt-4-vision-preview modelo.

top_logprobs
top_logprobs integer

Um inteiro entre 0 e 5 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado.

tipo
type string

Configuração para ativar o json_object modo JSON. Isso garante que a mensagem que o modelo gera é JSON válida.

Devoluções

Obtenha várias incorporações

Obtenha representações vetoriais de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de aprendizado de máquina

Parâmetros

Name Chave Necessário Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

dados introduzidos
input True array of string

Matriz de textos de entrada para obter incorporações, codificados como uma cadeia de caracteres. Cada string de entrada não deve exceder 2048 tokens de comprimento

utilizador
user string

Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos.

tipo_de_entrada
input_type string

O tipo de entrada de pesquisa de incorporação a ser usado.

Devoluções

Obter uma incorporação

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina

Parâmetros

Name Chave Necessário Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

dados introduzidos
input True string

Texto de entrada para obter incorporações, codificado como uma cadeia de caracteres. A cadeia de caracteres de entrada não deve exceder 2048 tokens de comprimento

utilizador
user string

Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos.

tipo_de_entrada
input_type string

O tipo de entrada de pesquisa de incorporação a ser usado.

Devoluções

Usando extensões para criar uma conclusão para mensagens de bate-papo

Usando extensões para criar uma conclusão para mensagens de bate-papo

Parâmetros

Name Chave Necessário Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Confirmar ID de implantação do modelo implantado
deploymentId True string

Confirmar ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

indexar
index integer

O índice da mensagem na conversa.

função
role True string

O papel do autor desta mensagem.

destinatário
recipient string

O destinatário da mensagem no formato de <namespace>.<operação>. Apresente se e somente se o destinatário for ferramenta.

conteúdo
content True string

O conteúdo da mensagem

end_turn
end_turn boolean

Se a mensagem termina a volta.

tipo
type True string

O tipo de fonte de dados.

parameters
parameters object

Os parâmetros a serem usados para a fonte de dados em tempo de execução.

temperatura
temperature number

Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos.

top_p
top_p number

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos.

fluxo
stream boolean

Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.

pare
stop array of string

Tamanho mínimo da matriz de 1 e máximo de 4

máximo de tokens
max_tokens integer

O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt).

penalização por presença
presence_penalty number

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.

penalização de frequência
frequency_penalty number

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.

logit_bias
logit_bias object

Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

utilizador
user string

Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos.

Devoluções

A resposta das extensões de conclusão de chat.

Definições

Message

Uma mensagem de chat.

Name Caminho Tipo Description
indexar
index integer

O índice da mensagem na conversa.

função
role string

O papel do autor desta mensagem.

destinatário
recipient string

O destinatário da mensagem no formato de <namespace>.<operação>. Apresente se e somente se o destinatário for ferramenta.

conteúdo
content string

O conteúdo da mensagem

end_turn
end_turn boolean

Se a mensagem termina a volta.

ExtensõesChatConclusãoResposta

A resposta das extensões de conclusão de chat.

Name Caminho Tipo Description
id
id string
objecto
object string
criado
created integer
modelo
model string
prompt_filter_results
prompt_filter_results promptFilterResults

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
total_tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensõesChatCompletionChoice

Name Caminho Tipo Description
indexar
index integer
motivo_de_finalização
finish_reason string
content_filter_results
content_filter_results contentFilterResults

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não.

messages
messages array of Message

A lista de mensagens retornadas pelo serviço.

contentFilterResult

Name Caminho Tipo Description
severity
severity string
filtered
filtered boolean

contentFilterResults

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não.

Name Caminho Tipo Description
sexual
sexual contentFilterResult
violence
violence contentFilterResult
hate
hate contentFilterResult
self_harm
self_harm contentFilterResult
erro
error errorBase

Resultado do Filtro de Prompt

Resultados da filtragem de conteúdo para um único prompt na solicitação.

Name Caminho Tipo Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterResults

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não.

promptFiltrarResultados

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.

Name Caminho Tipo Description
Itens
promptFilterResult

Resultados da filtragem de conteúdo para um único prompt na solicitação.

Base de Dados de Erros

Name Caminho Tipo Description
código
code string
mensagem
message string

errorBase_2024Feb15Preview

Name Caminho Tipo Description
código
code string
mensagem
message string

contentFilterSeverityResult_2024Feb15Preview

Name Caminho Tipo Description
filtered
filtered boolean
severity
severity string

contentFilterDetectedResult_2024Feb15Preview

Name Caminho Tipo Description
filtered
filtered boolean
detected
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Name Caminho Tipo Description
filtered
filtered boolean
detected
detected boolean
URL
citation.URL string
licença
citation.license string

contentFilterIdResult_2024Feb15Preview

Name Caminho Tipo Description
id
id string
filtered
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Name Caminho Tipo Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
erro
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Name Caminho Tipo Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
erro
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Resultados da filtragem de conteúdo para um único prompt na solicitação.

Name Caminho Tipo Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterPromptResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

promptFilterResults_2024Feb15Preview

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.

Name Caminho Tipo Description
Itens
promptFilterResult_2024Feb15Preview

Resultados da filtragem de conteúdo para um único prompt na solicitação.

azureChatExtensionsMessageContext_2024Feb15Preview

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

Name Caminho Tipo Description
citations
citations array of citation_2024Feb15Preview

O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta.

intenção
intent string

A intenção detetada a partir do histórico de conversas, usada para avançar para a próxima rodada, mantendo o contexto.

citation_2024Feb15Preview

informações de citação para uma mensagem de resposta de conclusão do chat.

Name Caminho Tipo Description
conteúdo
content string

O conteúdo da citação.

title
title string

O título da citação.

URL
url string

O URL da citação.

caminho do arquivo
filepath string

O caminho do arquivo da citação.

Identificador_de_fragmento
chunk_id string

O ID do segmento da citação.

createChatCompletionResponse_2024Feb15Preview

Name Caminho Tipo Description
id
id string

Um identificador exclusivo para a conclusão do chat.

objecto
object chatCompletionResponseObject_2024Feb15Preview

O tipo de objeto.

criado
created integer

O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada.

modelo
model string

O modelo usado para a conclusão do chat.

utilização
usage completionUsage_2024Feb15Preview

Estatísticas de utilização do pedido de preenchimento.

system_fingerprint
system_fingerprint string

Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.

choices
choices array of object
indexar
choices.index integer
motivo_de_finalização
choices.finish_reason string
mensagem
choices.message chatCompletionResponseMessage_2024Feb15Preview

Uma mensagem de conclusão do chat gerada pelo modelo.

content_filter_results
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Registre informações de probabilidade para a escolha.

chatCompletionChoiceLogProbs_2024Feb15Preview

Registre informações de probabilidade para a escolha.

Name Caminho Tipo Description
conteúdo
content array of chatCompletionTokenLogprob_2024Feb15Preview

Uma lista de tokens de conteúdo de mensagem com informações de probabilidade logarítmica.

chatCompletionTokenLogprob_2024Feb15Preview

Name Caminho Tipo Description
token
token string

O token.

logprob
logprob number

A probabilidade logarítmica deste token.

bytes
bytes array of integer

Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token.

top_logprobs
top_logprobs array of object

Lista dos tokens mais prováveis e o log de probabilidade, nesta posição específica de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos.

token
top_logprobs.token string

O token.

logprob
top_logprobs.logprob number

A probabilidade logarítmica deste token.

bytes
top_logprobs.bytes array of integer

Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token.

chatCompletionResponseMessage_2024Feb15Preview

Uma mensagem de conclusão do chat gerada pelo modelo.

Name Caminho Tipo Description
função
role chatCompletionResponseMessageRole_2024Feb15Preview

O papel do autor da mensagem de resposta.

conteúdo
content string

O conteúdo da mensagem.

contexto
context azureChatExtensionsMessageContext_2024Feb15Preview

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

chatCompletionResponseMessageRole_2024Feb15Preview

O papel do autor da mensagem de resposta.

O papel do autor da mensagem de resposta.

chatCompletionResponseObject_2024Feb15Preview

O tipo de objeto.

O tipo de objeto.

completionUsage_2024Feb15Preview

Estatísticas de utilização do pedido de preenchimento.

Name Caminho Tipo Description
prompt_tokens
prompt_tokens integer

Número de tokens no prompt.

completion_tokens
completion_tokens integer

Número de tokens na conclusão gerada.

total_tokens
total_tokens integer

Número total de tokens usados na solicitação (prompt + conclusão).

getSingleEmbeddingsResponse_2024Feb15Preview

Name Caminho Tipo Description
objecto
object string

Detalhes do tipo de objeto de resposta

modelo
model string

O nome do modelo

embedding
embedding array of number

Uma matriz de flutuadores que representam as incorporações computadas para as entradas fornecidas

prompt_tokens
usage.prompt_tokens integer

O número de tokens usados na entrada

total_tokens
usage.total_tokens integer

O total de tokens usados

getMultipleEmbeddingsResponse_2024Feb15Preview

Name Caminho Tipo Description
objecto
object string

Detalhes do tipo de objeto de resposta

modelo
model string

O nome do modelo

embeddings
embeddings array of array

Uma matriz com matrizes de floats representando as incorporações computadas da coleção de cadeia de caracteres de entrada

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

O número de tokens usados na entrada

total_tokens
usage.total_tokens integer

O total de tokens usados