Inferenza di Azure AI Foundry
Si tratta di una specifica Swagger di prima parte per i modelli di Azure AI Foundry, appositamente progettata per le attività di completamento della chat. Attualmente supporta solo l'endpoint completamento chat.
Questo connettore è disponibile nei prodotti e nelle aree seguenti:
| Servizio | Class | Regions |
|---|---|---|
| Copilot Studio | Normale | Tutte le aree di Power Automate |
| App per la logica | Normale | Tutte le aree di App per la logica |
| Power Apps | Normale | Tutte le aree di Power Apps |
| Power Automate | Normale | Tutte le aree di Power Automate |
| Contatto | |
|---|---|
| Nome | Microsoft |
| URL | https://support.microsoft.com/ |
| abapi@microsoft.com |
| Metadati del connettore | |
|---|---|
| Editore | Microsoft |
| Sito web | https://learn.microsoft.com/en-us/azure/ai-foundry/ |
| Informativa sulla privacy | https://privacy.microsoft.com/en-us/privacystatement |
| Categorie | AI |
Creazione di una connessione
Il connettore supporta i tipi di autenticazione seguenti:
| Predefinita | Parametri per la creazione della connessione. | Tutte le aree geografiche | Condivisibile |
Predefinito
Applicabile: tutte le aree
Parametri per la creazione della connessione.
Si tratta di una connessione condivisibile. Se l'app per l'alimentazione viene condivisa con un altro utente, anche la connessione viene condivisa. Per altre informazioni, vedere Panoramica dei connettori per le app canvas - Power Apps | Microsoft Docs
| Nome | TIPO | Description | Obbligatorio |
|---|---|---|---|
| Uri di destinazione | corda | Specificare l'endpoint di inferenza per il modello Foundry | Vero |
| Chiave API | securestring | Chiave API per questo endpoint di inferenza del modello | Vero |
| Nome distribuzione modello | corda | Specificare il nome della distribuzione del modello per il modello Foundry | |
| Nome modello di base | corda | Specificare il nome del modello di base per il modello Foundry |
Limiti per la limitazione delle richieste
| Nome | Chiamate | Periodo di rinnovo |
|---|---|---|
| Chiamate API per connessione | 5000 | 60 secondi |
Azioni
| Creare un completamento della chat |
Genera un completamento per una conversazione, in base ai messaggi forniti e alla configurazione del modello. |
Creare un completamento della chat
Genera un completamento per una conversazione, in base ai messaggi forniti e alla configurazione del modello.
Parametri
| Nome | Chiave | Necessario | Tipo | Descrizione |
|---|---|---|---|---|
|
Versione dell'API
|
api-version | string |
Versione dell'API da usare per questo endpoint di completamento della chat del modello. |
|
|
ruolo
|
role | string |
Ruolo del mittente del messaggio ,ad esempio 'utente', 'assistente'. |
|
|
contenuto
|
content | object | ||
|
temperatura
|
temperature | float |
Temperatura di campionamento da utilizzare, compresa tra 0 e 1. I valori più alti rendono l'output più casuale. |
|
|
top_p
|
top_p | float |
Parametro di campionamento top-p compreso tra 0 e 1. |
|
|
numero massimo di token
|
max_tokens | integer |
Numero massimo di token da generare nella risposta. |
|
|
model
|
model | string |
Nome distribuzione modello. |
Restituisce
- Corpo
- ChatCompletionResponse
Definizioni
Scelta
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
content_filter_results
|
content_filter_results | object |
Risultati del filtro contenuto applicato alla risposta. |
|
finish_reason
|
finish_reason | string |
Motivo per cui il modello ha interrotto la generazione di altri token. I valori possibili includono 'stop', 'length', 'content_filter' e così via. |
|
index
|
index | integer |
Indice di questa scelta all'interno del set generato di completamenti. |
|
logprobs
|
logprobs | string |
Probabilità di log associate a ogni token nella risposta (se richiesto). |
|
contenuto
|
message.content | string |
Contenuto del messaggio generato nella conversazione. Si tratta della risposta alla query NL dell'utente. |
|
refusal
|
message.refusal | string |
Se il modello rifiuta di generare un messaggio, questo campo descrive il rifiuto. |
|
ruolo
|
message.role | string |
Ruolo del mittente del messaggio ,ad esempio 'utente', 'assistente'. |
PromptFilterResult
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer |
Indice della richiesta nell'input originale. |
|
content_filter_results
|
content_filter_results | object |
Metadati del filtro del contenuto applicati al prompt. |
CompletionTokensDetails
Informazioni dettagliate sull'utilizzo del token per il completamento.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
accepted_prediction_tokens
|
accepted_prediction_tokens | integer |
Numero di token accettati come stime valide per la risposta. |
|
reasoning_tokens
|
reasoning_tokens | integer |
Numero di token usati per il processo di ragionamento del modello. |
|
rejected_prediction_tokens
|
rejected_prediction_tokens | integer |
Numero di token rifiutati durante il processo di stima. |
PromptTokensDetails
Dettagli sui token usati nel prompt.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
cached_tokens
|
cached_tokens | integer |
Numero di token memorizzati nella cache e riutilizzati per il prompt. |
Usage
Dettagli sull'utilizzo dei token per la richiesta, inclusi i token di richiesta e di completamento.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
completion_tokens
|
completion_tokens | integer |
Numero di token utilizzati dal completamento. |
|
completion_tokens_details
|
completion_tokens_details | CompletionTokensDetails |
Informazioni dettagliate sull'utilizzo del token per il completamento. |
|
prompt_tokens
|
prompt_tokens | integer |
Numero di token utilizzati dal prompt. |
|
prompt_tokens_details
|
prompt_tokens_details | PromptTokensDetails |
Dettagli sui token usati nel prompt. |
|
total_tokens
|
total_tokens | integer |
Numero totale di token utilizzati dall'intera richiesta (richiesta + completamento). |
ChatCompletionResponse
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
choices
|
choices | array of Choice |
Elenco dei completamenti generati per il prompt specificato. |
|
id
|
id | string |
Identificatore univoco per la richiesta di completamento della chat. |
|
model
|
model | string |
Modello usato per generare il completamento della chat. |
|
prompt_filter_results
|
prompt_filter_results | array of PromptFilterResult |
Risultati del filtro contenuto per ogni richiesta nella richiesta. |
|
usage
|
usage | Usage |
Dettagli sull'utilizzo dei token per la richiesta, inclusi i token di richiesta e di completamento. |