Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Annotazioni
Questo documento fa riferimento al portale di Microsoft Foundry (versione classica).
🔍Per informazioni sul nuovo portale, vedere la documentazione di Microsoft Foundry (nuova).
Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per OpenAI di Azure.
Specifiche API
La gestione e l'interazione con i modelli e le risorse di Azure OpenAI sono suddivisi in tre superfici API principali:
- Piano di controllo
- Piano dati - Creazione
- Piano dati - Inferenza
Ogni specifica/superficie dell'API incapsula un set diverso di funzionalità Azure OpenAI. Ogni API ha un proprio set univoco di versioni API di anteprima e stabili/disponibili a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.
Importante
È ora disponibile una nuova API di inferenza di anteprima. Per altre informazioni, vedere la guida al ciclo di vita dell'API.
| API (Interfaccia di Programmazione delle Applicazioni) | Ultima versione di anteprima | Ultima versione disponibile a livello generale | Indicazioni | Descrizione |
|---|---|---|---|---|
| Piano di controllo | 2025-07-01-preview |
2025-06-01 |
File di specifiche | L'API del piano di controllo viene usata per operazioni come la creazione di risorse, la distribuzione del modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo gestisce anche le operazioni possibili con funzionalità come Azure Resource Manager, Bicep, Terraform e l'interfaccia della riga di comando di Azure. |
| Piano dati | v1 preview |
v1 |
File di specifiche | L'API del piano dati controlla le operazioni di inferenza e creazione. |
Autenticazione
OpenAI di Azure fornisce due metodi di autenticazione. È possibile usare chiavi API o Microsoft Entra ID.
Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione
api-keyHTTP. La guida introduttiva fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.Autenticazione dell'ID Microsoft Entra: è possibile autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione vengono inclusi in una richiesta come intestazione
Authorization. Il token specificato deve essere preceduto daBearer, ad esempio:Bearer YOUR_AUTH_TOKEN. È possibile leggere la guida pratica sull'autenticazione con Microsoft Entra ID.
Controllo delle versioni dell'API REST
Le API del servizio sono sottoposte al controllo delle versioni usando il parametro di query api-version. Tutte le versioni seguono la struttura di data AAAA-MM-GG. Per esempio:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenza del piano dati
Il resto dell'articolo illustra la versione disponibile a livello generale più recente della specifica di inferenza del piano dati di Azure OpenAI, 2024-10-21.
Se si sta cercando documentazione sull'ultima versione dell'API di anteprima, vedere l'API di inferenza del piano dati di anteprima più recente
Completamenti
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Crea un completamento per i prompt forniti, i parametri e il modello scelto.
Parametri dell'URI
| Nome | In ingresso | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|---|
| punto finale | sentiero | Sì | string url |
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | sentiero | Sì | string | ID distribuzione del modello distribuito. |
| api-version | quesito | Sì | string | Versione dell'API |
Intestazione di richiesta
| Nome | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|
| api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| prompt | stringa o matrice | Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token. Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento. |
Sì | |
| best_of | integer | Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero da restituire: best_of deve essere maggiore di n.Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop. |
NO | 1 |
| echo (eco) | boolean | Eco di ritorno del prompt oltre al completamento |
NO | Falso |
| frequency_penalty | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
NO | 0 |
| logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>. |
NO | Nessuno |
| logprobs | integer | Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l’API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero essere presenti fino a logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
NO | Nessuno |
| numero massimo di token | integer | Numero massimo di token generabili nel completamento. Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello. |
NO | 16 |
| n | integer | Il numero di completamenti da generare per ogni richiesta. Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop. |
NO | 1 |
| penalità_di_presenza | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
NO | 0 |
| seed | integer | Se specificato, il nostro sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed e gli stessi parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
NO | |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
NO | |
| torrente | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. |
NO | Falso |
| suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
NO | Nessuno |
| temperatura | d'acquisto | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
NO | 1 |
| top_p | d'acquisto | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
NO | 1 |
| utente | string | Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. |
NO |
Risposte
Codice di stato: 200
Descrizione: OK
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | createCompletionResponse | Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat). |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | errorResponse |
Esempi
Esempio
Crea un completamento per i prompt forniti, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Risposte: Codice di stato: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporamenti
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da algoritmi e modelli di apprendimento automatico.
Parametri dell'URI
| Nome | In ingresso | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|---|
| punto finale | sentiero | Sì | string url |
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | sentiero | Sì | string | |
| api-version | quesito | Sì | string | Versione dell'API |
Intestazione di richiesta
| Nome | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|
| api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| input | stringa o matrice | Testo di input da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passare un array di stringhe o una matrice di array di token. L’input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni uguali o inferiori a 2.048. |
Sì | |
| utente | string | Un identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare usi impropri. | NO | |
| input_type | string | tipo di input della ricerca di incorporamento da usare | NO | |
| encoding_format | string | Formato in cui restituire gli incorporamenti. Può essere float o base64. Il valore predefinito è float. |
NO | |
| dimensions | integer | Numero di dimensioni che devono essere presenti negli incorporamenti di output risultanti. Supportato solo in text-embedding-3 e modelli successivi. |
NO |
Risposte
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| oggetto | string | Sì | ||
| modello | string | Sì | ||
| data | array | Sì | ||
| utilizzo | oggetto | Sì |
Proprietà per l'utilizzo
prompt_tokens
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| total_tokens | integer |
Codice di stato: 200
Descrizione: OK
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | oggetto |
Esempi
Esempio
Restituisce gli incorporamenti per un prompt specificato.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Risposte: Codice di stato: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Completamenti della chat
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Crea un completamento per il messaggio di chat
Parametri dell'URI
| Nome | In ingresso | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|---|
| punto finale | sentiero | Sì | string url |
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | sentiero | Sì | string | ID distribuzione del modello distribuito. |
| api-version | quesito | Sì | string | Versione dell'API |
Intestazione di richiesta
| Nome | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|
| api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| temperatura | d'acquisto | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
NO | 1 |
| top_p | d'acquisto | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
NO | 1 |
| torrente | boolean | Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. |
NO | Falso |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. |
NO | |
| numero massimo di token | integer | Numero massimo di token che possono essere generati al momento del completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
NO | |
| max_completion_tokens (numero massimo di token completi) | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | NO | |
| penalità_di_presenza | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
NO | 0 |
| frequency_penalty | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
NO | 0 |
| logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
NO | Nessuno |
| utente | string | Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. |
NO | |
| del cloud al dispositivo | array | Elenco di messaggi che comprendono la conversazione effettuata finora. | Sì | |
| data_sources | array | Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
NO | |
| logprobs | boolean | Indica se restituire o non restituire le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
NO | Falso |
| top_logprobs | integer | Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
logprobs deve essere impostato su true se viene usato questo parametro. |
NO | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
NO | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. | NO | Vero |
| formato_risposta | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente gli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
NO | |
| seed | integer | Questa funzionalità è in versione beta. Se specificato, il nostro sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed e gli stessi parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
NO | |
| strumenti | array | Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
NO | |
| scelta_strumento | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita quando sono presenti strumenti. |
NO | |
| chiamata_di_funzione | string o chatCompletionFunctionCallOption | Deprecato e sostituito da tool_choice.Controlla quale funzione (se presente) viene chiamata dal modello. none indica che il modello non chiamerà una funzione e genererà invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni.
auto è l'impostazione predefinita se sono presenti funzioni. |
NO | |
| Funzioni | array | Deprecato e sostituito da tools.Un elenco di funzioni per cui il modello può generare input JSON. |
NO |
Risposte
Codice di stato: 200
Descrizione: OK
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | createChatCompletionResponse o createChatCompletionStreamResponse |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | errorResponse |
Esempi
Esempio
Crea un completamento per i prompt forniti, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento basato sui dati di Ricerca di Azure e sull'identità gestita assegnata dal sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento basato sui dati vettoriali di Ricerca di Azure, sul messaggio assistente precedente e sull'identità gestita assegnata dall'utente.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Esempio
Crea un completamento per l'Azure Cosmos DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Trascrizioni - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Trascrive l'audio nella lingua di input.
Parametri dell'URI
| Nome | In ingresso | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|---|
| punto finale | sentiero | Sì | string url |
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | sentiero | Sì | string | ID distribuzione del modello di riconoscimento vocale. Per informazioni sui modelli supportati, vedere [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | quesito | Sì | string | Versione dell'API |
Intestazione di richiesta
| Nome | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|
| api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Request Body
Tipo di contenuto: multipart/form-data
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| file | string | L'oggetto file audio da trascrivere. | Sì | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. La richiesta deve corrispondere alla lingua audio. | NO | |
| formato_risposta | audioResponseFormat | Definisce il formato dell'output. | NO | |
| temperatura | d'acquisto | Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | NO | 0 |
| Lingua | string | La lingua dell'audio di input. Fornire la lingua di input in formato ISO-639-1 migliora l'accuratezza e la latenza. | NO |
Risposte
Codice di stato: 200
Descrizione: OK
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | audioResponse o audioVerboseResponse | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era testo, vtt o srt). |
Esempi
Esempio
Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Esempio
Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduzioni - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Trascrive e converte l'audio di input in testo in inglese.
Parametri dell'URI
| Nome | In ingresso | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|---|
| punto finale | sentiero | Sì | string url |
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | sentiero | Sì | string | ID distribuzione del modello Whisper distribuito. Per informazioni sui modelli supportati, vedere [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | quesito | Sì | string | Versione dell'API |
Intestazione di richiesta
| Nome | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|
| api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Request Body
Tipo di contenuto: multipart/form-data
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| file | string | Il file audio da convertire. | Sì | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | NO | |
| formato_risposta | audioResponseFormat | Definisce il formato dell'output. | NO | |
| temperatura | d'acquisto | Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | NO | 0 |
Risposte
Codice di stato: 200
Descrizione: OK
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | audioResponse o audioVerboseResponse | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era testo, vtt o srt). |
Esempi
Esempio
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Esempio
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Generazione di immagini
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genera un batch di immagini da una didascalia di testo in una determinata distribuzione del modello DALL-E
Parametri dell'URI
| Nome | In ingresso | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|---|
| punto finale | sentiero | Sì | string url |
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | sentiero | Sì | string | ID distribuzione del modello DALL-E distribuito. |
| api-version | quesito | Sì | string | Versione dell'API |
Intestazione di richiesta
| Nome | Obbligatorio | TIPO | Descrizione |
|---|---|---|---|
| api-key | Vero | string | Fornire qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4,000 caratteri. | Sì | |
| n | integer | Numero di immagini da generare. | NO | 1 |
| size | imageSize | Dimensioni delle immagini generate. | NO | 1024x1024 |
| formato_risposta | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | NO | url |
| utente | string | Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. | NO | |
| qualità | imageQuality | La qualità dell'immagine che verrà generata. | NO | standard |
| style | imageStyle | Stile delle immagini generate. | NO | vivid |
Risposte
Codice di stato: 200
Descrizione: Ok
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: impostazione predefinita
Descrizione: si è verificato un errore.
| Tipo di contenuto | Tipo | Descrizione |
|---|---|---|
| application/json | dalleErrorResponse |
Esempi
Esempio
Crea immagini in base a un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Risposte: Codice di stato: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Componenti
errorResponse
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| Errore | error | NO |
errorBase
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| codice | string | NO | ||
| Messaggio | string | NO |
Errore
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| param | string | NO | ||
| tipo | string | NO | ||
| errore interno | innerError | Errore interno con dettagli aggiuntivi. | NO |
innerError
Errore interno con dettagli aggiuntivi.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| codice | innerErrorCode | Codici di errore per l'oggetto errore interno. | NO | |
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | NO |
innerErrorCode
Codici di errore per l'oggetto errore interno.
Descrizione: codici di errore per l'oggetto errore interno.
Tipo: string
Predefinita:
Nome enumerazione: innerErrorCode
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| ResponsibleAIPolicyViolation | Il prompt ha violato una o più regole di filtro dei contenuti. |
dalleErrorResponse
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| Errore | dalleError | NO |
dalleError
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| param | string | NO | ||
| tipo | string | NO | ||
| errore interno | dalleInnerError | Errore interno con dettagli aggiuntivi. | NO |
dalleInnerError
Errore interno con dettagli aggiuntivi.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| codice | innerErrorCode | Codici di errore per l'oggetto errore interno. | NO | |
| content_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | NO | |
| revised_prompt | string | Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. | NO |
contentFilterResultBase
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| filtered | boolean | Sì |
contentFilterSeverityResult
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| filtered | boolean | Sì | ||
| severity | string | NO |
contentFilterDetectedResult
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| filtered | boolean | Sì | ||
| rilevato | boolean | NO |
contentFilterDetectedWithCitationResult
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| citation | oggetto | NO |
Proprietà per la citazione
URL
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| URL | string |
Licenza
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| Licenza | string |
contentFilterResultsBase
Informazioni sui risultati del filtro dei contenuti.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | NO | ||
| violenza | contentFilterSeverityResult | NO | ||
| hate | contentFilterSeverityResult | NO | ||
| autolesionismo | contentFilterSeverityResult | NO | ||
| volgarità | contentFilterDetectedResult | NO | ||
| Errore | errorBase | NO |
contentFilterPromptResults
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | NO | ||
| violenza | contentFilterSeverityResult | NO | ||
| hate | contentFilterSeverityResult | NO | ||
| autolesionismo | contentFilterSeverityResult | NO | ||
| volgarità | contentFilterDetectedResult | NO | ||
| Errore | errorBase | NO | ||
| jailbreak | contentFilterDetectedResult | NO |
contentFilterChoiceResults
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | NO | ||
| violenza | contentFilterSeverityResult | NO | ||
| hate | contentFilterSeverityResult | NO | ||
| autolesionismo | contentFilterSeverityResult | NO | ||
| volgarità | contentFilterDetectedResult | NO | ||
| Errore | errorBase | NO | ||
| protected_material_text | contentFilterDetectedResult | NO | ||
| protected_material_code | contentFilterDetectedWithCitationResult | NO |
promptFilterResult
Risultati del filtro dei contenuti per un singolo prompt nella richiesta.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| prompt_index | integer | NO | ||
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | NO |
promptFilterResults
Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi.
Nessuna proprietà definita per questo componente.
dalleContentFilterResults
Informazioni sui risultati del filtro dei contenuti.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | NO | ||
| violenza | contentFilterSeverityResult | NO | ||
| hate | contentFilterSeverityResult | NO | ||
| autolesionismo | contentFilterSeverityResult | NO |
dalleFilterResults
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | NO | ||
| violenza | contentFilterSeverityResult | NO | ||
| hate | contentFilterSeverityResult | NO | ||
| autolesionismo | contentFilterSeverityResult | NO | ||
| volgarità | contentFilterDetectedResult | NO | ||
| jailbreak | contentFilterDetectedResult | NO |
chatCompletionsRequestCommon
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| temperatura | d'acquisto | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
NO | 1 |
| top_p | d'acquisto | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
NO | 1 |
| torrente | boolean | Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati mano a mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. |
NO | Falso |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. | NO | |
| numero massimo di token | integer | Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Questo valore è ora deprecato in favore di max_completion_tokens e non è compatibile con i modelli della serie o1. |
NO | 4096 |
| max_completion_tokens (numero massimo di token completi) | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | NO | |
| penalità_di_presenza | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. | NO | 0 |
| frequency_penalty | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. | NO | 0 |
| logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. | NO | |
| utente | string | Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di Azure di monitorare e rilevare gli abusi. | NO |
createCompletionRequest
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| prompt | stringa o matrice | Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token. Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento. |
Sì | |
| best_of | integer | Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero da restituire: best_of deve essere maggiore di n.Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop. |
NO | 1 |
| echo (eco) | boolean | Eco di ritorno del prompt oltre al completamento |
NO | Falso |
| frequency_penalty | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
NO | 0 |
| logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>. |
NO | Nessuno |
| logprobs | integer | Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l’API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero essere presenti fino a logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
NO | Nessuno |
| numero massimo di token | integer | Numero massimo di token generabili nel completamento. Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello. |
NO | 16 |
| n | integer | Il numero di completamenti da generare per ogni richiesta. Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop. |
NO | 1 |
| penalità_di_presenza | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
NO | 0 |
| seed | integer | Se specificato, il nostro sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed e gli stessi parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
NO | |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
NO | |
| torrente | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. |
NO | Falso |
| suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
NO | Nessuno |
| temperatura | d'acquisto | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
NO | 1 |
| top_p | d'acquisto | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
NO | 1 |
| utente | string | Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. |
NO |
creaRispostaDiCompletamento
Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| id | string | Identificatore univoco per il completamento. | Sì | |
| Scelte | array | L'elenco delle scelte di completamento che il modello ha generato per il prompt di input. | Sì | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento. | Sì | |
| modello | string | Modello usato per il completamento. | Sì | |
| prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. | NO | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
NO | |
| oggetto | enum | Tipo di oggetto, che è sempre "text_completion" Valori possibili: text_completion |
Sì | |
| utilizzo | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | NO |
createChatCompletionRequest
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| temperatura | d'acquisto | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. In genere si consiglia di modificare questo valore o top_p ma non entrambi. |
NO | 1 |
| top_p | d'acquisto | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%. In genere si consiglia di modificare questo valore o temperature ma non entrambi. |
NO | 1 |
| torrente | boolean | Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. |
NO | Falso |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smetterà di generare altri token. |
NO | |
| numero massimo di token | integer | Numero massimo di token che possono essere generati al momento del completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
NO | |
| max_completion_tokens (numero massimo di token completi) | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | NO | |
| penalità_di_presenza | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
NO | 0 |
| frequency_penalty | d'acquisto | Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
NO | 0 |
| logit_bias | oggetto | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
NO | Nessuno |
| utente | string | Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. |
NO | |
| del cloud al dispositivo | array | Elenco di messaggi che comprendono la conversazione effettuata finora. | Sì | |
| data_sources | array | Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
NO | |
| logprobs | boolean | Indica se restituire o non restituire le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
NO | Falso |
| top_logprobs | integer | Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
logprobs deve essere impostato su true se viene usato questo parametro. |
NO | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
NO | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. | NO | Vero |
| formato_risposta | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente gli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto. |
NO | |
| seed | integer | Questa funzionalità è in versione beta. Se specificato, il nostro sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed e gli stessi parametri restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end. |
NO | |
| strumenti | array | Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
NO | |
| scelta_strumento | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita quando sono presenti strumenti. |
NO | |
| chiamata_di_funzione | string o chatCompletionFunctionCallOption | Deprecato e sostituito da tool_choice.Controlla quale funzione (se presente) viene chiamata dal modello. none indica che il modello non chiamerà una funzione e genererà invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni.
auto è l'impostazione predefinita se sono presenti funzioni. |
NO | |
| Funzioni | array | Deprecato e sostituito da tools.Un elenco di funzioni per cui il modello può generare input JSON. |
NO |
chatCompletionFunctions
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| descrizione | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | NO | |
| nome | string | Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. | Sì | |
| parametri | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione di parameters definisce una funzione con un elenco di parametri vuoto. |
NO |
chatCompletionFunctionCallOption
Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| nome | string | Nome della funzione da chiamare. | Sì |
chatCompletionRequestMessage
Questo componente può essere uno dei seguenti:
chatCompletionRequestSystemMessage
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| contenuto | stringa o matrice | Contenuto del messaggio di sistema. | Sì | |
| ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso system.Valori possibili: sistema |
Sì | |
| nome | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. | NO |
chatCompletionRequestUserMessage
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| contenuto | stringa o matrice | Contenuto del messaggio utente. |
Sì | |
| ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso user.Valori possibili: utente |
Sì | |
| nome | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. | NO |
chatCompletionRequestAssistantMessage
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| contenuto | stringa o matrice | Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls o function_call non siano specificati. |
NO | |
| rifiuto | string | Messaggio di rifiuto dell'assistente. | NO | |
| ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso assistant.Valori possibili: assistente |
Sì | |
| nome | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. | NO | |
| tool_calls | chatCompletionMessageToolCalls | Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. | NO | |
| chiamata_di_funzione | oggetto | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. |
NO |
Proprietà per function_call
argomenti
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e potrebbe generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
nome
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| nome | string | Nome della funzione da chiamare. |
chatCompletionRequestToolMessage
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso tool.Valori possibili: strumento |
Sì | |
| contenuto | stringa o matrice | Contenuto del messaggio dello strumento. | Sì | |
| tool_call_id | string | Chiamata dello strumento a cui risponde questo messaggio. | Sì |
chatCompletionRequestFunctionMessage
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: funzione |
Sì | |
| contenuto | string | Contenuto del messaggio della funzione. | Sì | |
| nome | string | Nome della funzione da chiamare. | Sì |
chatCompletionRequestSystemMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestUserMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestAssistantMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestToolMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestMessageContentPartText
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo della parte di contenuto. Valori possibili: testo |
Sì | |
| text | string | Contenuto del testo. | Sì |
chatCompletionRequestMessageContentPartImage
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo della parte di contenuto. Valori possibili: image_url |
Sì | |
| image_url | oggetto | Sì |
Proprietà per image_url
url
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| url | string | URL dell'immagine o dati dell'immagine con codifica base64. |
dettagli
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| dettagli | string | Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione. | auto |
chatCompletionRequestMessageContentPartRefusal
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo della parte di contenuto. Valori possibili: rifiuto |
Sì | |
| rifiuto | string | Messaggio di rifiuto generato dal modello. | Sì |
Configurazione dell'Estensione Chat di Azure
Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì |
azureChatExtensionType
Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Descrizione: una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Tipo: string
Predefinita:
Nome enumerazione: azureChatExtensionType
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| Azure Search | Rappresenta l'uso di Ricerca di Azure come un'estensione chat di Azure OpenAI. |
| azure_cosmos_db | Rappresenta l'uso di Azure Cosmos DB come un'estensione chat di Azure OpenAI. |
azureSearchChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Ricerca di Azure quando viene usata come estensione chat di Azure OpenAI.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
| parametri | azureSearchChatExtensionParameters | I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI. | NO |
azureSearchChatExtensionParameters
I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| autenticazione | onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions | Sì | ||
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | NO | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | NO | |
| strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | NO | |
| informazioni_sul_ruolo | string | Fornire al modello le istruzioni sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e indicargli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite di token complessivo. | NO | |
| punto finale | string | Percorso assoluto dell'endpoint per la risorsa di Ricerca di Azure da usare. | Sì | |
| index_name | string | Il nome dell'indice da usare come disponibile nella risorsa di Ricerca di Azure a cui si è fatto riferimento. | Sì | |
| mappatura dei campi | opzioni di mappatura dei campi di indice di ricerca Azure | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata. | NO | |
| query_type | azureSearchQueryType | Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI. | NO | |
| configurazione_semantica | string | La configurazione semantica aggiuntiva per la query. | NO | |
| filtro | string | Filtro di ricerca. | NO | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | NO |
azureSearchIndexFieldMappingOptions
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| campo_titolo | string | Il nome del campo indice da usare come titolo. | NO | |
| url_field | string | Nome del campo di indice da usare come URL. | NO | |
| filepath_field | string | Il nome del campo di indice da usare come percorso file. | NO | |
| content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | NO | |
| content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | NO | |
| campi vettoriali | array | Nomi dei campi che rappresentano dati vettoriali. | NO |
azureSearchQueryType
Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.
Descrizione: il tipo di richiesta di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.
Tipo: string
Predefinita:
Nome enumerazione: AzureSearchQueryType
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| semplice | Rappresenta il parser di query semplice predefinito. |
| semantico | Rappresenta il parser di query semantico per la modellazione semantica avanzata. |
| vettore | Rappresenta la ricerca vettoriale sui dati calcolati. |
| vector_simple_hybrid | Rappresenta una combinazione della strategia di query semplice con dati vettoriali. |
| vector_semantic_hybrid | Rappresenta una combinazione di query di ricerca semantica e dati vettoriali. |
azureCosmosDBChatExtensionConfiguration
Una specifica rappresentazione di opzioni configurabili per Azure Cosmos DB quando viene usato come estensione chat di Azure OpenAI.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Sì | |
| parametri | azureCosmosDBChatExtensionParameters | Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore. |
NO |
azureCosmosDBChatExtensionParameters
Parametri da usare quando si configurano estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| autenticazione | onYourDataConnectionStringAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione. | Sì | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | NO | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | NO | |
| strictness | integer | La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. | NO | |
| informazioni_sul_ruolo | string | Fornire al modello le istruzioni sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e indicargli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite di token complessivo. | NO | |
| database_name | string | Il nome del database MongoDB vCore da usare con Azure Cosmos DB. | Sì | |
| nome_del_contenitore | string | Il nome del contenitore della risorsa di Azure Cosmos DB. | Sì | |
| index_name | string | Nome dell'indice MongoDB vCore da usare con Azure Cosmos DB. | Sì | |
| mappatura dei campi | azureCosmosDBFieldMappingOptions | Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata. | Sì | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Sì |
Opzioni di Mappatura del Campo Azure Cosmos DB
Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| campo_titolo | string | Il nome del campo indice da usare come titolo. | NO | |
| url_field | string | Nome del campo di indice da usare come URL. | NO | |
| filepath_field | string | Il nome del campo di indice da usare come percorso file. | NO | |
| content_fields | array | I nomi dei campi di indice che devono essere gestiti come contenuto. | Sì | |
| content_fields_separator | string | Il modello separatore che devono usare i campi di contenuto. | NO | |
| campi vettoriali | array | Nomi dei campi che rappresentano dati vettoriali. | Sì |
onYourDataAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì |
onYourDataAuthenticationType
I tipi di autenticazione supportati con Azure OpenAI On Your Data.
Descrizione: i tipi di autenticazione supportati con Azure OpenAI On Your Data.
Tipo: string
Predefinita:
Nome enumerazione: onYourDataAuthenticationType
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| chiave_api | Autenticazione tramite chiave API. |
| stringa_di_connessione | Autenticazione tramite stringa di connessione. |
| system_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dal sistema. |
| user_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dall'utente. |
onYourDataApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
| Key | string | La chiave API da usare per l’autenticazione. | NO |
onYourDataConnectionStringAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
| stringa_di_connessione | string | La stringa di connessione da usare per l'autenticazione. | NO |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dal sistema.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dall'utente.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | I tipi di autenticazione supportati con Azure OpenAI On Your Data. | Sì | |
| managed_identity_resource_id | string | L'ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. | NO |
onYourDataVectorizationSource
Una rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI On Your Data con ricerca vettoriale.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì |
onYourDataVectorizationSourceType
Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.
Descrizione: rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati da usare con
la ricerca vettoriale.
Tipo: string
Predefinita:
Nome enumerazione: onYourDataVectorizationSourceType
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| punto finale | Rappresenta la vettorizzazione eseguita dalle chiamate del servizio pubblico a un modello di incorporamento di Azure OpenAI. |
| deployment_name | Rappresenta un nome distribuzione del modello Ada da usare. Questa distribuzione del modello deve trovarsi nella stessa risorsa Azure OpenAI, ma On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una pubblica, che abilita la ricerca vettoriale vettoriale anche in reti private. |
onYourDataDeploymentNameVectorizationSource
I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome distribuzione del modello di incorporamento interno nella stessa risorsa di Azure OpenAI.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì | |
| deployment_name | string | Specifica il nome della distribuzione del modello da usare per la vettorializzazione. Questa distribuzione del modello deve trovarsi nella stessa risorsa di Azure OpenAI, ma On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche in reti private. | NO |
onYourDataEndpointVectorizationSource
Dettagli di un'origine di vettorizzazione, usata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su una chiamata a un endpoint pubblico Azure OpenAI per gli incorporamenti.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale. |
Sì | |
| autenticazione | onYourDataApiKeyAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API. | NO | |
| punto finale | string | Specifica l'endpoint da usare per la vettorializzazione. Questo endpoint deve trovarsi nella stessa risorsa di Azure OpenAI, ma On Your Data userà questo endpoint tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche in reti private. | NO |
azureChatExtensionsMessageContext
Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte le estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| Citazioni | array | Ili risultato del recupero dell'origine dati, usato per generare il messaggio dell'assistente nella risposta. | NO | |
| intent | string | L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo per trasferire il contesto. | NO |
citation
Informazioni sulla citazione per un messaggio di risposta di completamento chat.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| contenuto | string | Il contenuto della citazione. | Sì | |
| titolo | string | Il titolo della citazione. | NO | |
| url | string | L'URL della citazione. | NO | |
| percorso del file | string | Il percorso del file della citazione. | NO | |
| chunk_id | string | L'ID blocco della citazione. | NO |
chatCompletionMessageToolCall
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| id | string | ID della chiamata allo strumento. | Sì | |
| tipo | Tipo di chiamata dello strumento | Il tipo di chiamata allo strumento, in questo caso function. |
Sì | |
| funzione | oggetto | Funzione chiamata dal modello. | Sì |
Proprietà per la funzione
nome
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| nome | string | Nome della funzione da chiamare. |
argomenti
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e potrebbe generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
toolCallType
Il tipo di chiamata allo strumento, in questo caso function.
Descrizione: il tipo di chiamata dello strumento, in questo caso function.
Tipo: string
Predefinita:
Nome enumerazione: toolCallType
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| funzione | Il tipo di chiamata dello strumento è funzione. |
chatCompletionRequestMessageTool
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tool_call_id | string | Chiamata dello strumento a cui risponde questo messaggio. | NO | |
| contenuto | string | Contenuto del messaggio. | NO |
chatCompletionRequestMessageFunction
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| ruolo | enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: funzione |
NO | |
| nome | string | Contenuto del messaggio. | NO | |
| contenuto | string | Contenuto del messaggio. | NO |
createChatCompletionResponse
Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| id | string | Identificatore univoco per il completamento della chat. | Sì | |
| prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. | NO | |
| Scelte | array | Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1. |
Sì | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. | Sì | |
| modello | string | Modello usato per il completamento della chat. | Sì | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
NO | |
| oggetto | enum | Il tipo di oggetto, che è sempre chat.completion.Valori possibili: chat.completion |
Sì | |
| utilizzo | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | NO |
createChatCompletionStreamResponse
Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input fornito.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| id | string | Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID. | Sì | |
| Scelte | array | Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1. |
Sì | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp. | Sì | |
| modello | string | Modello per generare il completamento. | Sì | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
NO | |
| oggetto | enum | Il tipo di oggetto, che è sempre chat.completion.chunk.Valori possibili: chat.completion.chunk |
Sì |
chatCompletionStreamResponseDelta
Delta di completamento della chat generato dalle risposte del modello trasmesso.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| contenuto | string | Contenuto del messaggio del blocco. | NO | |
| chiamata_di_funzione | oggetto | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. |
NO | |
| tool_calls | array | NO | ||
| ruolo | enum | Ruolo dell'autore del messaggio. Valori possibili: sistema, utente, assistente, strumento |
NO | |
| rifiuto | string | Messaggio di rifiuto generato dal modello. | NO |
Proprietà per function_call
argomenti
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e potrebbe generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
nome
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| nome | string | Nome della funzione da chiamare. |
chatCompletionMessageToolCallChunk
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| indice | integer | Sì | ||
| id | string | ID della chiamata allo strumento. | NO | |
| tipo | enum | Tipo dello strumento. Attualmente è supportato solo function.Valori possibili: funzione |
NO | |
| funzione | oggetto | NO |
Proprietà per la funzione
nome
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| nome | string | Nome della funzione da chiamare. |
argomenti
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e potrebbe generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. |
chatCompletionStreamOptions
Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| include_usage | boolean | Se impostato, un blocco aggiuntivo verrà trasmesso prima del messaggio data: [DONE]. Il campo usage di questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il campo choices sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un campo usage, ma con un valore null. |
NO |
Probabilità logaritmiche della scelta di completamento della chat
Informazioni sulla probabilità di log per la scelta.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| contenuto | array | Un elenco di token di contenuto del messaggio con informazioni sulla probabilità di log. | Sì | |
| rifiuto | array | Un elenco di token di rifiuto del messaggio con informazioni sulla probabilità di log. | NO |
chatCompletionTokenLogprob
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| token | string | Token. | Sì | |
| logprob | d'acquisto | La probabilità di log di questo token. | Sì | |
| byte | array | Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token. |
Sì | |
| top_logprobs | array | Elenco dei token più probabili e della loro probabilità di log, in questa posizione del token. In rari casi, potrebbe venire restituito un numero di top_logprobs inferiore a quelli richiesti. |
Sì |
chatCompletionResponseMessage
Messaggio di completamento della chat generato dal modello.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| ruolo | chatCompletionResponseMessageRole | Il ruolo dell'autore del messaggio di risposta. | Sì | |
| rifiuto | string | Messaggio di rifiuto generato dal modello. | Sì | |
| contenuto | string | Contenuto del messaggio. | Sì | |
| tool_calls | array | Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. | NO | |
| chiamata_di_funzione | chatCompletionFunctionCall | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. |
NO | |
| contesto | azureChatExtensionsMessageContext | Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente. |
NO |
chatCompletionResponseMessageRole
Il ruolo dell'autore del messaggio di risposta.
Descrizione: il ruolo dell'autore del messaggio di risposta.
Tipo: string
Predefinita:
Valori enumerazione:
- assistente
chatCompletionToolChoiceOption
Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita quando sono presenti strumenti.
Questo componente può essere uno dei seguenti:
chatCompletionNamedToolChoice
Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo dello strumento. Attualmente è supportato solo function.Valori possibili: funzione |
Sì | |
| funzione | oggetto | Sì |
Proprietà per la funzione
nome
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| nome | string | Nome della funzione da chiamare. |
ParallelToolCalls
Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento.
Nessuna proprietà definita per questo componente.
chatCompletionMessageToolCalls
Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni.
Nessuna proprietà definita per questo componente.
chatCompletionFunctionCall
Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| nome | string | Nome della funzione da chiamare. | Sì | |
| argomenti | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e potrebbe generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | Sì |
completionUsage
Statistiche di utilizzo per la richiesta di completamento.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| prompt_tokens | integer | Numero di token nel prompt. | Sì | |
| completion_tokens | integer | Numero di token nel completamento generato. | Sì | |
| total_tokens | integer | Numero totale di token usati nella richiesta (prompt + completamento). | Sì | |
| completion_tokens_details | oggetto | Scomposizione dei token usati in un completamento. | NO |
Proprietà per completion_tokens_details
reasoning_tokens
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| reasoning_tokens | integer | Token generati dal modello per il ragionamento. |
chatCompletionTool
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo dello strumento. Attualmente è supportato solo function.Valori possibili: funzione |
Sì | |
| funzione | FunctionObject | Sì |
ParametriDellaFunzione
I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
Nessuna proprietà definita per questo componente.
FunctionObject
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| descrizione | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | NO | |
| nome | string | Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. | Sì | |
| parametri | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione di parameters definisce una funzione con un elenco di parametri vuoto. |
NO | |
| rigido | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel campo parameters. Solo un subset di schema JSON è supportato quando strict è true. |
NO | Falso |
ResponseFormatText
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo di formato di risposta definito: textValori possibili: testo |
Sì |
ResponseFormatJsonObject
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo di formato di risposta definito: json_objectValori possibili: json_object |
Sì |
ResponseFormatJsonSchemaSchema
Schema per il formato di risposta, descritto come oggetto Schema JSON.
Nessuna proprietà definita per questo componente.
ResponseFormatJsonSchema
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| tipo | enum | Tipo di formato di risposta definito: json_schemaValori possibili: json_schema |
Sì | |
| json_schema | oggetto | Sì |
Proprietà per json_schema
descrizione
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| descrizione | string | Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. |
nome
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| nome | string | Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. |
schema
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Schema per il formato di risposta, descritto come oggetto Schema JSON. |
rigido
| Nome | TIPO | Descrizione | Impostazione predefinita |
|---|---|---|---|
| rigido | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo schema. Solo un subset di schema JSON è supportato quando strict è true. |
Falso |
chatCompletionChoiceCommon
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| indice | integer | NO | ||
| finish_reason | string | NO |
creaRichiestaTraduzione
Richiesta di conversione.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| file | string | Il file audio da convertire. | Sì | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | NO | |
| formato_risposta | audioResponseFormat | Definisce il formato dell'output. | NO | |
| temperatura | d'acquisto | Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | NO | 0 |
risposta audio
Risposta di conversione o trascrizione quando response_format era json
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| text | string | Testo convertito o trascritto. | Sì |
audioVerboseResponse
Risposta di conversione o trascrizione quando response_format era verbose_json
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| text | string | Testo convertito o trascritto. | Sì | |
| compito | string | Tipo di attività audio. | NO | |
| Lingua | string | Lingua. | NO | |
| duration | d'acquisto | Durata. | NO | |
| segmenti | array | NO |
formato di risposta audio
Definisce il formato dell'output.
Descrizione: definisce il formato dell'output.
Tipo: string
Predefinita:
Valori enumerazione:
- json
- text
- srt
- verbose_json
- vtt
creaRichiestaTrascrizione
Richiesta di trascrizione.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| file | string | L'oggetto file audio da trascrivere. | Sì | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. La richiesta deve corrispondere alla lingua audio. | NO | |
| formato_risposta | audioResponseFormat | Definisce il formato dell'output. | NO | |
| temperatura | d'acquisto | Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | NO | 0 |
| Lingua | string | La lingua dell'audio di input. Fornire la lingua di input in formato ISO-639-1 migliora l'accuratezza e la latenza. | NO |
audioSegment
Segmento di trascrizione o conversione.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| id | integer | Identificatore del segmento. | NO | |
| seek | d'acquisto | Offset del segmento. | NO | |
| Inizio | d'acquisto | Offset iniziale del segmento. | NO | |
| end | d'acquisto | Offset finale del segmento. | NO | |
| text | string | Testo del segmento. | NO | |
| tokens | array | Token del testo. | NO | |
| temperatura | d'acquisto | Temperatura. | NO | |
| avg_logprob | d'acquisto | Probabilità media di log. | NO | |
| rapporto di compressione | d'acquisto | Rapporto di compressione. | NO | |
| no_speech_prob | d'acquisto | Probabilità di no speech. |
NO |
qualità dell'immagine
La qualità dell'immagine che verrà generata.
Descrizione: la qualità dell'immagine che verrà generata.
Tipo: string
Impostazione predefinita: standard
Nome enumerazione: quality
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| standard | Qualità standard crea immagini di qualità standard. |
| hd | Qualità HD crea immagini con dettagli più definiti e maggiore coerenza nell'immagine. |
imagesResponseFormat
Formato in cui vengono restituite le immagini generate.
Descrizione: il formato in cui vengono restituite le immagini generate.
Tipo: string
Impostazione predefinita: url
Nome enumerazione: imagesResponseFormat
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| url | L'URL che fornisce l'accesso temporaneo per scaricare le immagini generate. |
| b64_json | Le immagini generate vengono restituite come stringa con codifica Base64. |
imageSize
Dimensioni delle immagini generate.
Descrizione: le dimensioni delle immagini generate.
Tipo: string
Impostazione predefinita: 1024×1024
Nome enumerazione: size
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| 1792×1024 | Le dimensioni desiderate dell'immagine generata sono 1792×1024 pixel. |
| 1024×1792 | Le dimensioni desiderate dell'immagine generata sono 1024×1792 pixel. |
| 1024x1024 | Le dimensioni desiderate dell'immagine generata sono 1024×1024 pixel. |
stile dell'immagine
Stile delle immagini generate.
Descrizione: lo stile delle immagini generate.
Tipo: string
Impostazione predefinita: vivid
Nome enumerazione: style
Valori enumerazione:
| Valore | Descrizione |
|---|---|
| vivid | Vivid crea immagini iperrealistiche e drammatiche. |
| natural | Natural crea immagini più naturali e meno iperrealistiche. |
richiestaDiGenerazioneImmagini
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4,000 caratteri. | Sì | |
| n | integer | Numero di immagini da generare. | NO | 1 |
| size | imageSize | Dimensioni delle immagini generate. | NO | 1024x1024 |
| formato_risposta | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | NO | url |
| utente | string | Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. | NO | |
| qualità | imageQuality | La qualità dell'immagine che verrà generata. | NO | standard |
| style | imageStyle | Stile delle immagini generate. | NO | vivid |
rispostaGeneraImmagini
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| created | integer | Il timestamp unix al momento della creazione dell'operazione. | Sì | |
| data | array | I dati del risultato dell'operazione, se l'operazione riesce | Sì |
imageResult
L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.
| Nome | TIPO | Descrizione | Obbligatorio | Impostazione predefinita |
|---|---|---|---|---|
| url | string | L'URL dell'immagine. | NO | |
| b64_json | string | L'immagine con codifica Base64 | NO | |
| content_filter_results | dalleContentFilterResults | Informazioni sui risultati del filtro dei contenuti. | NO | |
| revised_prompt | string | Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. | NO | |
| prompt_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. | NO |
Estensioni di completamento
Le estensioni di completamento non fanno parte dell'ultima versione disponibile a livello generale della specifica di inferenza del piano dati di OpenAI di Azure.
Messaggio di chat
L'oggetto del messaggio della chat non fa parte dell'ultima versione disponibile a livello generale della specifica di inferenza del piano dati di OpenAI di Azure.
Sintesi vocale (anteprima)
Attualmente non fa parte delle specifiche di inferenza del piano dati di Azure OpenAI più recente della versione di disponibilità generale di Azure OpenAI. Per questa funzionalità, vedere la versione di anteprima più recente.
Passaggi successivi
Informazioni sui modelli e sull'ottimizzazione con l'API REST. Altre informazioni sui modelli sottostanti che alimentano Azure OpenAI.