Condividi tramite


Inferenza di Azure AI Foundry

Si tratta di una specifica Swagger di prima parte per i modelli di Azure AI Foundry, appositamente progettata per le attività di completamento della chat. Attualmente supporta solo l'endpoint completamento chat.

Questo connettore è disponibile nei prodotti e nelle aree seguenti:

Servizio Class Regions
Copilot Studio Normale Tutte le aree di Power Automate
App per la logica Normale Tutte le aree di App per la logica
Power Apps Normale Tutte le aree di Power Apps
Power Automate Normale Tutte le aree di Power Automate
Contatto
Nome Microsoft
URL https://support.microsoft.com/
Email abapi@microsoft.com
Metadati del connettore
Editore Microsoft
Sito web https://learn.microsoft.com/en-us/azure/ai-foundry/
Informativa sulla privacy https://privacy.microsoft.com/en-us/privacystatement
Categorie AI

Creazione di una connessione

Il connettore supporta i tipi di autenticazione seguenti:

Predefinita Parametri per la creazione della connessione. Tutte le aree geografiche Condivisibile

Predefinito

Applicabile: tutte le aree

Parametri per la creazione della connessione.

Si tratta di una connessione condivisibile. Se l'app per l'alimentazione viene condivisa con un altro utente, anche la connessione viene condivisa. Per altre informazioni, vedere Panoramica dei connettori per le app canvas - Power Apps | Microsoft Docs

Nome TIPO Description Obbligatorio
Uri di destinazione corda Specificare l'endpoint di inferenza per il modello Foundry Vero
Chiave API securestring Chiave API per questo endpoint di inferenza del modello Vero
Nome distribuzione modello corda Specificare il nome della distribuzione del modello per il modello Foundry
Nome modello di base corda Specificare il nome del modello di base per il modello Foundry

Limiti per la limitazione delle richieste

Nome Chiamate Periodo di rinnovo
Chiamate API per connessione 5000 60 secondi

Azioni

Creare un completamento della chat

Genera un completamento per una conversazione, in base ai messaggi forniti e alla configurazione del modello.

Creare un completamento della chat

Genera un completamento per una conversazione, in base ai messaggi forniti e alla configurazione del modello.

Parametri

Nome Chiave Necessario Tipo Descrizione
Versione dell'API
api-version string

Versione dell'API da usare per questo endpoint di completamento della chat del modello.

ruolo
role string

Ruolo del mittente del messaggio ,ad esempio 'utente', 'assistente'.

contenuto
content object
temperatura
temperature float

Temperatura di campionamento da utilizzare, compresa tra 0 e 1. I valori più alti rendono l'output più casuale.

top_p
top_p float

Parametro di campionamento top-p compreso tra 0 e 1.

numero massimo di token
max_tokens integer

Numero massimo di token da generare nella risposta.

model
model string

Nome distribuzione modello.

Restituisce

Definizioni

Scelta

Nome Percorso Tipo Descrizione
content_filter_results
content_filter_results object

Risultati del filtro contenuto applicato alla risposta.

finish_reason
finish_reason string

Motivo per cui il modello ha interrotto la generazione di altri token. I valori possibili includono 'stop', 'length', 'content_filter' e così via.

index
index integer

Indice di questa scelta all'interno del set generato di completamenti.

logprobs
logprobs string

Probabilità di log associate a ogni token nella risposta (se richiesto).

contenuto
message.content string

Contenuto del messaggio generato nella conversazione. Si tratta della risposta alla query NL dell'utente.

refusal
message.refusal string

Se il modello rifiuta di generare un messaggio, questo campo descrive il rifiuto.

ruolo
message.role string

Ruolo del mittente del messaggio ,ad esempio 'utente', 'assistente'.

PromptFilterResult

Nome Percorso Tipo Descrizione
prompt_index
prompt_index integer

Indice della richiesta nell'input originale.

content_filter_results
content_filter_results object

Metadati del filtro del contenuto applicati al prompt.

CompletionTokensDetails

Informazioni dettagliate sull'utilizzo del token per il completamento.

Nome Percorso Tipo Descrizione
accepted_prediction_tokens
accepted_prediction_tokens integer

Numero di token accettati come stime valide per la risposta.

reasoning_tokens
reasoning_tokens integer

Numero di token usati per il processo di ragionamento del modello.

rejected_prediction_tokens
rejected_prediction_tokens integer

Numero di token rifiutati durante il processo di stima.

PromptTokensDetails

Dettagli sui token usati nel prompt.

Nome Percorso Tipo Descrizione
cached_tokens
cached_tokens integer

Numero di token memorizzati nella cache e riutilizzati per il prompt.

Usage

Dettagli sull'utilizzo dei token per la richiesta, inclusi i token di richiesta e di completamento.

Nome Percorso Tipo Descrizione
completion_tokens
completion_tokens integer

Numero di token utilizzati dal completamento.

completion_tokens_details
completion_tokens_details CompletionTokensDetails

Informazioni dettagliate sull'utilizzo del token per il completamento.

prompt_tokens
prompt_tokens integer

Numero di token utilizzati dal prompt.

prompt_tokens_details
prompt_tokens_details PromptTokensDetails

Dettagli sui token usati nel prompt.

total_tokens
total_tokens integer

Numero totale di token utilizzati dall'intera richiesta (richiesta + completamento).

ChatCompletionResponse

Nome Percorso Tipo Descrizione
choices
choices array of Choice

Elenco dei completamenti generati per il prompt specificato.

id
id string

Identificatore univoco per la richiesta di completamento della chat.

model
model string

Modello usato per generare il completamento della chat.

prompt_filter_results
prompt_filter_results array of PromptFilterResult

Risultati del filtro contenuto per ogni richiesta nella richiesta.

usage
usage Usage

Dettagli sull'utilizzo dei token per la richiesta, inclusi i token di richiesta e di completamento.