Condividi tramite


Riferimenti all'API REST di Azure OpenAI nei modelli di Azure AI Foundry

Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per OpenAI di Azure.

Specifiche API

La gestione e l'interazione con i modelli e le risorse di Azure OpenAI sono suddivisi in tre superfici API principali:

  • Piano di controllo
  • Piano dati - Creazione
  • Piano dati - Inferenza

Ogni specifica/superficie dell'API incapsula un set diverso di funzionalità Azure OpenAI. Ogni API ha un proprio set univoco di versioni API di anteprima e stabili/disponibili a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.

Importante

È ora disponibile una nuova API di inferenza di anteprima. Per altre informazioni, vedere la guida al ciclo di vita dell'API.

API (Interfaccia di Programmazione delle Applicazioni) Ultima versione di anteprima Ultima versione disponibile a livello generale Specifiche Descrizione
Piano di controllo 2024-06-01-preview 2024-10-01 File di specifiche Azure OpenAI condivide un piano di controllo comune con tutti gli altri servizi. L'API del piano di controllo viene usata per operazioni come la creazione di risorse di Azure OpenAI, distribuzione modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo gestisce anche le operazioni possibili con funzionalità come Azure Resource Manager, Bicep, Terraform e l'interfaccia della riga di comando di Azure.
Piano dati - Creazione 2025-04-01-preview 2024-10-21 File di specifiche L'API di creazione del piano dati controlla l'ottimizzazione, il caricamento file, i processi di inserimento, batch e determinate query a livello di modello
Piano dati - Inferenza 2025-04-01-preview 2024-10-21 File di specifiche L'API di inferenza del piano dati fornisce le capacità di inferenza/endpoint per funzionalità come completamenti, completamenti della chat, incorporamenti, audio, i tuoi dati, Dall-e, assistenti, eccetera.

Autenticazione

OpenAI di Azure fornisce due metodi di autenticazione. È possibile usare chiavi API o Microsoft Entra ID.

  • Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione HTTP api-key. La guida di avvio rapido fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.

  • Autenticazione di Microsoft Entra ID: è possibile autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione vengono inclusi in una richiesta come intestazione Authorization. Il token specificato deve essere preceduto da Bearer, ad esempio: Bearer YOUR_AUTH_TOKEN. È possibile leggere la guida pratica sull'autenticazione con Microsoft Entra ID.

Controllo delle versioni dell'API REST

Le API del servizio sono sottoposte al controllo delle versioni usando il parametro di query api-version. Tutte le versioni seguono la struttura di data AAAA-MM-GG. Ad esempio:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenza del piano dati

Il resto dell'articolo illustra la versione disponibile a livello generale più recente della specifica di inferenza del piano dati di Azure OpenAI, 2024-10-21.

Se si sta cercando documentazione sull'ultima versione dell'API di anteprima, vedere l'API di inferenza del piano dati di anteprima più recente

Completamenti

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

Parametri dell'URI

Nome Tra Richiesto TIPO Descrizione
punto finale sentiero corda
URL.
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{nome-risorsa}.openai.azure.com
ID di distribuzione sentiero corda ID distribuzione del modello distribuito.
versione-api quesito corda Versione dell'API

Intestazione richiesta

Nome Richiesto TIPO Descrizione
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrizione Richiesto Valore predefinito
richiesta Stringa o matrice Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token.

Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento.
il meglio di numero intero Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.

Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero da restituire: best_of deve essere maggiore di n.

Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
eco booleano Eco di ritorno del prompt oltre al completamento
NO Falso
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.

Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>.
NO Nessuno
logprobs numero intero Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.

Il valore massimo per logprobs è 5.
NO Nessuno
numero massimo di token numero intero Numero massimo di token generabili nel completamento.

Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello.
NO 16
n numero intero Il numero di completamenti da generare per ogni richiesta.

Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
seme numero intero Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.

Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermarsi Stringa o matrice Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.
NO
torrente booleano Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. NO Falso
suffisso corda Suffisso che segue un completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
NO Nessuno
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi.
NO

Risposte

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json createCompletionResponse Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).

Codice di stato: predefinito

Descrizione: servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

Esempi

Esempio

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporamenti

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da algoritmi e modelli di apprendimento automatico.

Parametri dell'URI

Nome Tra Richiesto TIPO Descrizione
punto finale sentiero corda
URL.
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{nome-risorsa}.openai.azure.com
ID di distribuzione sentiero corda
versione-api quesito corda Versione dell'API

Intestazione richiesta

Nome Richiesto TIPO Descrizione
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrizione Richiesto Valore predefinito
ingresso Stringa o matrice Testo di input da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passare un array di stringhe o una matrice di array di token. L'input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni inferiori o inferiori a 2.048.
utente corda Un identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare usi impropri. NO
tipo_di_input corda tipo di input della ricerca di incorporamento da usare NO
formato_codifica corda Formato in cui restituire gli incorporamenti. Può essere float o base64. Il valore predefinito è float. NO
dimensioni numero intero Numero di dimensioni che devono essere presenti negli incorporamenti di output risultanti. Supportata solo in text-embedding-3 e versioni successive. NO

Risposte

Nome TIPO Descrizione Richiesto Valore predefinito
oggetto corda
modello corda
dati elenco
attivamente oggetto

Proprietà per l'utilizzo

prompt_tokens

Nome TIPO Descrizione Valore predefinito
prompt_tokens numero intero

total_tokens

Nome TIPO Descrizione Valore predefinito
total_tokens numero intero

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json oggetto

Esempi

Esempio

Restituisce gli incorporamenti per un prompt specificato.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Completamenti della chat

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Crea un completamento per il messaggio di chat

Parametri dell'URI

Nome Tra Richiesto TIPO Descrizione
punto finale sentiero corda
URL.
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{nome-risorsa}.openai.azure.com
ID di distribuzione sentiero corda ID distribuzione del modello distribuito.
versione-api quesito corda Versione dell'API

Intestazione richiesta

Nome Richiesto TIPO Descrizione
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrizione Richiesto Valore predefinito
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
torrente booleano Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. NO Falso
fermarsi Stringa o matrice Fino a quattro sequenze in cui l'API smetterà di generare altri token.
NO
max_tokens numero intero Numero massimo di token che possono essere generati al momento del completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello.
NO
max_completion_tokens (numero massimo di token completi) numero intero Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
NO Nessuno
utente corda Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi.
NO
del cloud al dispositivo elenco Elenco di messaggi che comprendono la conversazione effettuata finora.
fonti_dati elenco Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
NO
logprobs booleano Indica se restituire o meno le probabilità di log dei token di output. Se vero, restituisce le probabilità di log di ogni token di output restituito nella content di message. NO Falso
top_logprobs numero intero Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. NO
n numero intero Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. NO 1
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
formato_risposta ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di . gpt-3.5-turbo-1106

L'impostazione su { "type": "json_schema", "json_schema": {...} } consente gli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
seme numero intero Questa funzionalità è in versione beta.
Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
strumenti elenco Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni.
NO
scelta_strumento chatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti. NO
chiamata_di_funzione string o chatCompletionFunctionCallOption Deprecato e sostituito da tool_choice.

Controlla quale funzione (se presente) viene chiamata dal modello.
none indica che il modello non chiamerà una funzione e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica una funzione specifica tramite {"name": "my_function"}, impone al modello a chiamare tale funzione.

none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni.
NO
Funzioni elenco Deprecato e sostituito da tools.

Un elenco di funzioni per cui il modello può generare input JSON.
NO

Risposte

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json createChatCompletionResponse o createChatCompletionStreamResponse

Codice di stato: predefinito

Descrizione: servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

Esempi

Esempio

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Esempio

Crea un completamento basato sui dati di Ricerca di Azure e sull'identità gestita assegnata dal sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Esempio

Crea un completamento basato sui dati vettoriali di Ricerca di Azure, sul messaggio assistente precedente e sull'identità gestita assegnata dall'utente.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Esempio

Crea un completamento per l'Azure Cosmos DB fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Trascrizioni - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Trascrive l'audio nella lingua di input.

Parametri dell'URI

Nome Tra Richiesto TIPO Descrizione
punto finale sentiero corda
URL.
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{nome-risorsa}.openai.azure.com
ID di distribuzione sentiero corda ID distribuzione del modello di trasformazione vocale in testo.

Per informazioni sui modelli supportati, vedere [/azure/ai-services/openai/concepts/models#audio-models].
versione-api quesito corda Versione dell'API

Intestazione richiesta

Nome Richiesto TIPO Descrizione
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrizione Richiesto Valore predefinito
documento corda L'oggetto file audio da trascrivere.
richiesta corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0
lingua corda La lingua dell'audio di input. Fornire la lingua di input in formato ISO-639-1 migliora l'accuratezza e la latenza. NO

Risposte

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json audioResponse o audioVerboseResponse
testo semplice corda Testo trascritto nel formato di output (quando response_format era testo, vtt o srt).

Esempi

Esempio

Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Esempio

Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduzioni - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Trascrive e converte l'audio di input in testo inglese.

Parametri dell'URI

Nome Tra Richiesto TIPO Descrizione
punto finale sentiero corda
URL.
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{nome-risorsa}.openai.azure.com
ID di distribuzione sentiero corda ID distribuzione del modello sussurro distribuito.

Per informazioni sui modelli supportati, vedere [/azure/ai-services/openai/concepts/models#audio-models].
versione-api quesito corda Versione dell'API

Intestazione richiesta

Nome Richiesto TIPO Descrizione
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrizione Richiesto Valore predefinito
documento corda Il file audio da convertire.
richiesta corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0

Risposte

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json audioResponse o audioVerboseResponse
testo semplice corda Testo trascritto nel formato di output (quando response_format era testo, vtt o srt).

Esempi

Esempio

Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Esempio

Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Creazione di immagini

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Genera un batch di immagini da una didascalia di testo in una determinata distribuzione del modello dall-e

Parametri dell'URI

Nome Tra Richiesto TIPO Descrizione
punto finale sentiero corda
URL.
Endpoint di Azure OpenAI supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa di Azure OpenAI). https://{nome-risorsa}.openai.azure.com
ID di distribuzione sentiero corda ID distribuzione del modello dall-e distribuito.
versione-api quesito corda Versione dell'API

Intestazione richiesta

Nome Richiesto TIPO Descrizione
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrizione Richiesto Valore predefinito
richiesta corda Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4,000 caratteri.
n numero intero Numero di immagini da generare. NO 1
dimensione / taglia imageSize Dimensioni delle immagini generate. NO 1024x1024
formato_risposta imagesResponseFormat Formato in cui vengono restituite le immagini generate. NO URL.
utente corda Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. NO
qualità imageQuality La qualità dell'immagine che verrà generata. NO standard
stile imageStyle Stile delle immagini generate. NO vivido

Risposte

Codice di stato: 200

Descrizione: Ok

Tipo di contenuto Tipo Descrizione
application/json generateImagesResponse

Codice di stato: predefinito

Descrizione: si è verificato un errore.

Tipo di contenuto Tipo Descrizione
application/json dalleErrorResponse

Esempi

Esempio

Crea immagini in base a un prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Risposte: Codice di stato: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Componenti

Risposta di errore

Nome TIPO Descrizione Richiesto Valore predefinito
Errore errore NO

errorBase

Nome TIPO Descrizione Richiesto Valore predefinito
codice corda NO
messaggio corda NO

Errore

Nome TIPO Descrizione Richiesto Valore predefinito
Parametro corda NO
tipo corda NO
errore interno innerError Errore interno con dettagli aggiuntivi. NO

errore interno

Errore interno con dettagli aggiuntivi.

Nome TIPO Descrizione Richiesto Valore predefinito
codice innerErrorCode Codici di errore per l'oggetto errore interno. NO
risultati_filtro_contenuti contentFilterPromptResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO

innerErrorCode

Codici di errore per l'oggetto errore interno.

Descrizione: codici di errore per l'oggetto errore interno.

Tipo: string

Impostazione predefinita:

Nome enumerazione: innerErrorCode

Valori enumerazione:

valore Descrizione
Violazione della Politica di IA Responsabile Il prompt ha violato una o più regole di filtro dei contenuti.

dalleErrorResponse

Nome TIPO Descrizione Richiesto Valore predefinito
Errore dalleError NO

dalleError

Nome TIPO Descrizione Richiesto Valore predefinito
Parametro corda NO
tipo corda NO
errore interno dalleInnerError Errore interno con dettagli aggiuntivi. NO

dalleInnerError

Errore interno con dettagli aggiuntivi.

Nome TIPO Descrizione Richiesto Valore predefinito
codice innerErrorCode Codici di errore per l'oggetto errore interno. NO
risultati_filtro_contenuti dalleFilterResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO
testo_rivisto corda Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. NO

baseRisultatoFiltroContenuto

Nome TIPO Descrizione Richiesto Valore predefinito
Filtrata booleano

risultatoGravitàFiltroContenuti

Nome TIPO Descrizione Richiesto Valore predefinito
Filtrata booleano
severità corda NO

risultatoFiltroContenutiRilevato

Nome TIPO Descrizione Richiesto Valore predefinito
Filtrata booleano
rilevato booleano NO

Rilevato filtro contenuto con risultato di citazione

Nome TIPO Descrizione Richiesto Valore predefinito
citazione oggetto NO

Proprietà per la citazione

URL

Nome TIPO Descrizione Valore predefinito
URL corda

Licenza

Nome TIPO Descrizione Valore predefinito
Licenza corda

baseRisultatiFiltroContenuto

Informazioni sui risultati del filtro dei contenuti.

Nome TIPO Descrizione Richiesto Valore predefinito
sessuale risultatoDellaGravitàDelFiltroDeiContenuti NO
violenza risultatoDellaGravitàDelFiltroDeiContenuti NO
odio risultatoDellaGravitàDelFiltroDeiContenuti NO
autolesionismo risultatoDellaGravitàDelFiltroDeiContenuti NO
volgarità RisultatoRilevatoFiltroContenuti NO
Errore errorBase NO

Risultati del filtro dei contenuti

Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.

Nome TIPO Descrizione Richiesto Valore predefinito
sessuale risultatoDellaGravitàDelFiltroDeiContenuti NO
violenza risultatoDellaGravitàDelFiltroDeiContenuti NO
odio risultatoDellaGravitàDelFiltroDeiContenuti NO
autolesionismo risultatoDellaGravitàDelFiltroDeiContenuti NO
volgarità RisultatoRilevatoFiltroContenuti NO
Errore errorBase NO
evasione RisultatoRilevatoFiltroContenuti NO

risultatiSceltaFiltroContenuto

Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.

Nome TIPO Descrizione Richiesto Valore predefinito
sessuale risultatoDellaGravitàDelFiltroDeiContenuti NO
violenza risultatoDellaGravitàDelFiltroDeiContenuti NO
odio risultatoDellaGravitàDelFiltroDeiContenuti NO
autolesionismo risultatoDellaGravitàDelFiltroDeiContenuti NO
volgarità RisultatoRilevatoFiltroContenuti NO
Errore errorBase NO
testo_protetto_materiale RisultatoRilevatoFiltroContenuti NO
codice_materiale_protetto filtroContenutiRilevatoConRisultatoCitazione NO

risultato del filtro pronto

Risultati del filtro dei contenuti per un singolo prompt nella richiesta.

Nome TIPO Descrizione Richiesto Valore predefinito
prompt_index numero intero NO
risultati_filtro_contenuti contentFilterPromptResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO

filtra risultati immediatamente

Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi.

Nessuna proprietà definita per questo componente.

dalleContentFilterResults

Informazioni sui risultati del filtro dei contenuti.

Nome TIPO Descrizione Richiesto Valore predefinito
sessuale risultatoDellaGravitàDelFiltroDeiContenuti NO
violenza risultatoDellaGravitàDelFiltroDeiContenuti NO
odio risultatoDellaGravitàDelFiltroDeiContenuti NO
autolesionismo risultatoDellaGravitàDelFiltroDeiContenuti NO

FiltraRisultati

Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.

Nome TIPO Descrizione Richiesto Valore predefinito
sessuale risultatoDellaGravitàDelFiltroDeiContenuti NO
violenza risultatoDellaGravitàDelFiltroDeiContenuti NO
odio risultatoDellaGravitàDelFiltroDeiContenuti NO
autolesionismo risultatoDellaGravitàDelFiltroDeiContenuti NO
volgarità RisultatoRilevatoFiltroContenuti NO
evasione RisultatoRilevatoFiltroContenuti NO

richiestaCompletamentiChatComune

Nome TIPO Descrizione Richiesto Valore predefinito
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.
In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
torrente booleano Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati mano a mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. NO Falso
fermarsi Stringa o matrice Fino a quattro sequenze in cui l'API smetterà di generare altri token. NO
max_tokens numero intero Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Questo valore è ora deprecato a favore di max_completion_tokense non è compatibile con i modelli di serie o1. NO 4096
max_completion_tokens (numero massimo di token completi) numero intero Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. NO 0
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. NO
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di Azure di monitorare e rilevare gli abusi. NO

creaRichiestaCompletamento

Nome TIPO Descrizione Richiesto Valore predefinito
richiesta Stringa o matrice Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token.

Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento.
il meglio di numero intero Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.

Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero da restituire: best_of deve essere maggiore di n.

Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
eco booleano Eco di ritorno del prompt oltre al completamento
NO Falso
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.

Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>.
NO Nessuno
logprobs numero intero Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.

Il valore massimo per logprobs è 5.
NO Nessuno
max_tokens numero intero Numero massimo di token generabili nel completamento.

Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello.
NO 16
n numero intero Il numero di completamenti da generare per ogni richiesta.

Nota: poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
seme numero intero Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.

Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermarsi Stringa o matrice Fino a quattro sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.
NO
torrente booleano Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. NO Falso
suffisso corda Suffisso che segue un completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
NO Nessuno
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi.
NO

creaRispostaDiCompletamento

Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).

Nome TIPO Descrizione Richiesto Valore predefinito
Id corda Identificatore univoco per il completamento.
Scelte elenco L'elenco delle scelte di completamento che il modello ha generato per il prompt di input.
creato numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento.
modello corda Modello usato per il completamento.
richiedi_filtro_risultati promptFilterResults Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. NO
impronta_digitale_sistema corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
oggetto enumerazione Tipo di oggetto, che è sempre "text_completion"
Valori possibili: text_completion
attivamente completionUsage Statistiche di utilizzo per la richiesta di completamento. NO

creaRichiestaDiCompletamentoChat

Nome TIPO Descrizione Richiesto Valore predefinito
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
torrente booleano Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati man mano che diventano disponibili, con il flusso terminato da un messaggio data: [DONE]. NO Falso
fermarsi Stringa o matrice Fino a quattro sequenze in cui l'API smetterà di generare altri token.
NO
max_tokens numero intero Numero massimo di token che possono essere generati al momento del completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello.
NO
max_completion_tokens (numero massimo di token completi) numero intero Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
NO Nessuno
utente corda Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi.
NO
del cloud al dispositivo elenco Elenco di messaggi che comprendono la conversazione effettuata finora.
fonti_dati elenco Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
NO
logprobs booleano Indica se restituire o meno le probabilità di log dei token di output. Se vero, restituisce le probabilità di log di ogni token di output restituito nella content di message. NO Falso
top_logprobs numero intero Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. NO
n numero intero Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. NO 1
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
formato_risposta ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di . gpt-3.5-turbo-1106

L'impostazione su { "type": "json_schema", "json_schema": {...} } consente gli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è necessario anche indicare al modello di produrre JSON manualmente tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
seme numero intero Questa funzionalità è in versione beta.
Se specificato, il sistema effettuerà tutti i tentativi possibili per eseguire il campionamento in modo deterministico, in modo che le richieste ripetute con gli stessi seed e parametri restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
strumenti elenco Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni.
NO
scelta_strumento chatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti. NO
chiamata_di_funzione string o chatCompletionFunctionCallOption Deprecato e sostituito da tool_choice.

Controlla quale funzione (se presente) viene chiamata dal modello.
none indica che il modello non chiamerà una funzione e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica una funzione specifica tramite {"name": "my_function"}, impone al modello a chiamare tale funzione.

none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni.
NO
Funzioni elenco Deprecato e sostituito da tools.

Un elenco di funzioni per cui il modello può generare input JSON.
NO

funzioni di completamento della chat

Nome TIPO Descrizione Richiesto Valore predefinito
descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
Parametri FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
NO

chatCompletionFunctionCallOption

Se si specifica una funzione specifica tramite {"name": "my_function"}, impone al modello a chiamare tale funzione.

Nome TIPO Descrizione Richiesto Valore predefinito
nome corda Nome della funzione da chiamare.

messaggioDiRichiestaCompletamentoChat

Questo componente può essere uno dei seguenti:

Messaggio di Sistema di Richiesta di Completamento della Chat

Nome TIPO Descrizione Richiesto Valore predefinito
contenuto Stringa o matrice Contenuto del messaggio di sistema.
ruolo enumerazione Il ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: sistema
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO

messaggioUtenteRichiestaCompletamentoChat

Nome TIPO Descrizione Richiesto Valore predefinito
contenuto Stringa o matrice Contenuto del messaggio utente.
ruolo enumerazione Il ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: utente
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO

MessaggioRichiestaCompletamentoChatAssistente

Nome TIPO Descrizione Richiesto Valore predefinito
contenuto Stringa o matrice Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls o function_call non siano specificati.
NO
rifiuto corda Messaggio di rifiuto dell'assistente. NO
ruolo enumerazione Il ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistente
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
chiamate_di_strumenti chatCompletionMessageToolCalls Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. NO
chiamata_di_funzione oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. NO

Proprietà per function_call

argomenti

Nome TIPO Descrizione Valore predefinito
argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.

nome

Nome TIPO Descrizione Valore predefinito
nome corda Nome della funzione da chiamare.

chatCompletionRequestToolMessage

Nome TIPO Descrizione Richiesto Valore predefinito
ruolo enumerazione Il ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: strumento
contenuto Stringa o matrice Contenuto del messaggio dello strumento.
tool_call_id corda Chiamata dello strumento a cui risponde questo messaggio.

chatCompletionRequestFunctionMessage

Nome TIPO Descrizione Richiesto Valore predefinito
ruolo enumerazione Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: funzione
contenuto corda Contenuto del messaggio della funzione.
nome corda Nome della funzione da chiamare.

parteContenutoMessaggioSistemaRichiestaCompletamentoChat

Questo componente può essere uno dei seguenti:

parte del contenuto del messaggio dell'utente completato dalla chat

Questo componente può essere uno dei seguenti:

contenutoMessaggioAssistantRichiestaCompletamentoChat

Questo componente può essere uno dei seguenti:

ParteContenutoMessaggioStrumentoRichiestaCompletamentoChat

Questo componente può essere uno dei seguenti:

ContenutoParteMessaggioRichiestaCompletamentoChat

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo della parte di contenuto.
Valori possibili: testo
Testo corda Contenuto di testo.

ContenutoMessaggioRichiestaCompletamentoImmagine

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo della parte di contenuto.
Valori possibili: image_url
image_url oggetto

Proprietà per image_url

URL.

Nome TIPO Descrizione Valore predefinito
URL. corda URL dell'immagine o dati dell'immagine con codifica base64.

dettaglio

Nome TIPO Descrizione Valore predefinito
dettaglio corda Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione. automobile

RifiutoDiParteDelContenutoDelMessaggioDiRichiestaDiCompletamentoChat

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo della parte di contenuto.
Valori possibili: rifiuto
rifiuto corda Messaggio di rifiuto generato dal modello.

Configurazione dell'Estensione Chat di Azure

Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di
completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

azureChatExtensionType

Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Descrizione: una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Tipo: string

Impostazione predefinita:

Nome enumerazione: azureChatExtensionType

Valori enumerazione:

valore Descrizione
Azure Search Rappresenta l'uso di Ricerca di Azure come un'estensione chat di Azure OpenAI.
azure_cosmos_db Rappresenta l'uso di Azure Cosmos DB come un'estensione chat di Azure OpenAI.

azureSearchChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Ricerca di Azure quando viene usata come estensione chat di Azure OpenAI.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di
completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Parametri azureSearchChatExtensionParameters I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI. NO

Azure Search Chat Extension Parameters

I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI.

Nome TIPO Descrizione Richiesto Valore predefinito
autenticazione onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions
documenti principali numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO
nel campo di applicazione booleano Indica se le query devono essere limitate all'uso di dati indicizzati. NO
rigore numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
informazioni_sul_ruolo corda Fornire al modello le istruzioni sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e indicargli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite di token complessivo. NO
punto finale corda Percorso assoluto dell'endpoint per la risorsa di Ricerca di Azure da usare.
index_name corda Il nome dell'indice da usare come disponibile nella risorsa di Ricerca di Azure a cui si è fatto riferimento.
mappatura dei campi opzioni di mappatura dei campi di indice di ricerca Azure Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata. NO
tipo di query azureSearchQueryType Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI. NO
configurazione_semantica corda La configurazione semantica aggiuntiva per la query. NO
filtro corda Filtro di ricerca. NO
dipendenza_di_inclusione onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource NO

opzioniDiMappaturaDelCampoDellIndiceAzureSearch

Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata.

Nome TIPO Descrizione Richiesto Valore predefinito
campo_titolo corda Il nome del campo indice da usare come titolo. NO
campo_url corda Nome del campo di indice da usare come URL. NO
campo_percorso_file corda Il nome del campo di indice da usare come percorso file. NO
campi_contenuto elenco I nomi dei campi di indice che devono essere gestiti come contenuto. NO
separatore_campi_contenuto corda Il modello separatore che devono usare i campi di contenuto. NO
campi vettoriali elenco Nomi dei campi che rappresentano dati vettoriali. NO

azureSearchQueryType

Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.

Descrizione: il tipo di richiesta di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.

Tipo: string

Impostazione predefinita:

Nome enumerazione: AzureSearchQueryType

Valori enumerazione:

valore Descrizione
semplice Rappresenta il parser di query semplice predefinito.
semantico Rappresenta il parser di query semantico per la modellazione semantica avanzata.
vettore Rappresenta la ricerca vettoriale sui dati calcolati.
vettore_semplice_ibrido Rappresenta una combinazione della strategia di query semplice con dati vettoriali.
ibrido semantico vettoriale Rappresenta una combinazione di query di ricerca semantica e dati vettoriali.

azureCosmosDBChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Azure Cosmos DB quando viene usato come estensione chat di Azure OpenAI.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di
completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Parametri azureCosmosDBChatExtensionParameters Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for
MongoDB vCore.
NO

azureCosmosDBChatExtensionParameters

Parametri da usare quando si configurano estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore.

Nome TIPO Descrizione Richiesto Valore predefinito
autenticazione suOpzioniAutenticazioneStringaDiConnessioneDati Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione.
top_n_documents numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO
nel campo di applicazione booleano Indica se le query devono essere limitate all'uso di dati indicizzati. NO
rigore numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
informazioni_sul_ruolo corda Fornire al modello le istruzioni sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e indicargli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite di token complessivo. NO
nome_del_database corda Il nome del database MongoDB vCore da usare con Azure Cosmos DB.
nome_del_contenitore corda Il nome del contenitore della risorsa di Azure Cosmos DB.
index_name corda Nome dell'indice MongoDB vCore da usare con Azure Cosmos DB.
mappatura dei campi azureCosmosDBFieldMappingOptions Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata.
dipendenza_di_inclusione onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource

Opzioni di Mapping dei Campi di Azure Cosmos DB

Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata.

Nome TIPO Descrizione Richiesto Valore predefinito
campo_titolo corda Il nome del campo indice da usare come titolo. NO
campo_url corda Nome del campo di indice da usare come URL. NO
campo_percorso_file corda Il nome del campo di indice da usare come percorso file. NO
campi_contenuto elenco I nomi dei campi di indice che devono essere gestiti come contenuto.
separatore_campi_contenuto corda Il modello separatore che devono usare i campi di contenuto. NO
campi vettoriali elenco Nomi dei campi che rappresentano dati vettoriali.

opzioniDiAutenticazioneDeiTuoiDati

Le opzioni di autenticazione per Azure OpenAI On Your Data.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo tipoDiAutenticazioneSuiTuoiDati I tipi di autenticazione supportati con Azure OpenAI On Your Data.

AuthentificazioneTipoDatiPersonali

I tipi di autenticazione supportati con Azure OpenAI On Your Data.

Descrizione: i tipi di autenticazione supportati con Azure OpenAI On Your Data.

Tipo: string

Impostazione predefinita:

Nome enumerazione: onYourDataAuthenticationType

Valori enumerazione:

valore Descrizione
chiave_api Autenticazione tramite chiave API.
stringa_di_connessione Autenticazione tramite stringa di connessione.
identità gestita assegnata dal sistema Autenticazione tramite identità gestita assegnata dal sistema.
identità gestita assegnata dall'utente Autenticazione tramite identità gestita assegnata dall'utente.

onYourDataApiKeyOpzioniDiAutenticazione

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo tipoDiAutenticazioneSuiTuoiDati I tipi di autenticazione supportati con Azure OpenAI On Your Data.
chiave corda La chiave API da usare per l’autenticazione. NO

suTuaStringaDiConnessioneDatiOpzioniAutenticazione

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo tipoDiAutenticazioneSuiTuoiDati I tipi di autenticazione supportati con Azure OpenAI On Your Data.
stringa_di_connessione corda La stringa di connessione da usare per l'autenticazione. NO

suLeTueOpzioniDiAutenticazioneDellIdentitàGestitaAssegnata

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dal sistema.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo tipoDiAutenticazioneSuiTuoiDati I tipi di autenticazione supportati con Azure OpenAI On Your Data.

opzioniDiAutenticazioneConIdentitàGestitaAssegnataUtenteDati

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dall'utente.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo tipoDiAutenticazioneSuiTuoiDati I tipi di autenticazione supportati con Azure OpenAI On Your Data.
ID_risorsa_identità_gestita corda L'ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. NO

onIlTuoDataVectorizationSource

Una rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI On Your Data con ricerca vettoriale.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo sulTuoTipoDiOrigineDiDataVectorization Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con
la ricerca vettoriale.

onYourDataVectorizationSourceType

Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

Descrizione: rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati da usare con
la ricerca vettoriale.

Tipo: string

Impostazione predefinita:

Nome enumerazione: onYourDataVectorizationSourceType

Valori enumerazione:

valore Descrizione
punto finale Rappresenta la vettorizzazione eseguita dalle chiamate del servizio pubblico a un modello di incorporamento di Azure OpenAI.
nome_di_distribuzione Rappresenta un nome distribuzione del modello Ada da usare. Questa distribuzione del modello deve trovarsi nella stessa risorsa Azure OpenAI, ma
On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una pubblica, che abilita la ricerca vettoriale
anche nelle reti private.

onYourDataDeploymentNameVectorizationSource

I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome distribuzione del modello di incorporamento interno nella stessa risorsa di Azure OpenAI.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo sulTuoTipoDiOrigineDiDataVectorization Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con
la ricerca vettoriale.
nome_di_distribuzione corda Specifica il nome della distribuzione del modello da usare per la vettorializzazione. Questa distribuzione del modello deve trovarsi nella stessa risorsa di Azure OpenAI, ma On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche in reti private. NO

sorgenteDiVettorizzazionePerIlTuoEndpointDati

Dettagli di un'origine di vettorizzazione, usata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su una chiamata a un endpoint pubblico Azure OpenAI per gli incorporamenti.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo sulTuoTipoDiOrigineDiDataVectorization Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con
la ricerca vettoriale.
autenticazione OpzioniAutenticazioneChiaveApiOnYourData Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API. NO
punto finale corda Specifica l'endpoint da usare per la vettorializzazione. Questo endpoint deve trovarsi nella stessa risorsa di Azure OpenAI, ma On Your Data userà questo endpoint tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche in reti private. NO

contestoMessaggioEstensioniChatAzure

Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte le estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente.

Nome TIPO Descrizione Richiesto Valore predefinito
citazioni elenco Ili risultato del recupero dell'origine dati, usato per generare il messaggio dell'assistente nella risposta. NO
finalità corda L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo per trasferire il contesto. NO

citazione

Informazioni sulla citazione per un messaggio di risposta di completamento chat.

Nome TIPO Descrizione Richiesto Valore predefinito
contenuto corda Il contenuto della citazione.
titolo corda Il titolo della citazione. NO
URL. corda L'URL della citazione. NO
percorso file corda Il percorso del file della citazione. NO
chunk_id corda L'ID blocco della citazione. NO

chiamataStrumentoMessaggioCompletamentoChat

Nome TIPO Descrizione Richiesto Valore predefinito
Id corda ID della chiamata allo strumento.
tipo Tipo di chiamata dello strumento Il tipo di chiamata allo strumento, in questo caso function.
funzione oggetto Funzione chiamata dal modello.

Proprietà per la funzione

nome

Nome TIPO Descrizione Valore predefinito
nome corda Nome della funzione da chiamare.

argomenti

Nome TIPO Descrizione Valore predefinito
argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.

TipoChiamataStrumento

Il tipo di chiamata allo strumento, in questo caso function.

Descrizione: il tipo di chiamata dello strumento, in questo caso function.

Tipo: string

Impostazione predefinita:

Nome enumerazione: toolCallType

Valori enumerazione:

valore Descrizione
funzione Il tipo di chiamata dello strumento è funzione.

chatCompletionRequestMessageTool

Nome TIPO Descrizione Richiesto Valore predefinito
tool_call_id corda Chiamata dello strumento a cui risponde questo messaggio. NO
contenuto corda Contenuto del messaggio. NO

Funzione di Richiesta Messaggio di Completamento Chat

Nome TIPO Descrizione Richiesto Valore predefinito
ruolo enumerazione Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: funzione
NO
nome corda Contenuto del messaggio. NO
contenuto corda Contenuto del messaggio. NO

creare la risposta di completamento della chat

Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.

Nome TIPO Descrizione Richiesto Valore predefinito
Id corda Identificatore univoco per il completamento della chat.
richiedi_filtro_risultati promptFilterResults Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. NO
Scelte elenco Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1.
creato numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento della chat.
modello corda Modello usato per il completamento della chat.
impronta_digitale_sistema corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
oggetto enumerazione Il tipo di oggetto, che è sempre chat.completion.
Valori possibili: chat.completion
attivamente completionUsage Statistiche di utilizzo per la richiesta di completamento. NO

createChatCompletionStreamResponse

Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input fornito.

Nome TIPO Descrizione Richiesto Valore predefinito
Id corda Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID.
Scelte elenco Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1.
creato numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp.
modello corda Modello per generare il completamento.
impronta_digitale_sistema corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.
Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
oggetto enumerazione Il tipo di oggetto, che è sempre chat.completion.chunk.
Valori possibili: chat.completion.chunk

chatCompletionStreamResponseDelta

Delta di completamento della chat generato dalle risposte del modello trasmesso.

Nome TIPO Descrizione Richiesto Valore predefinito
contenuto corda Contenuto del messaggio del blocco. NO
chiamata_di_funzione oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. NO
chiamate_di_strumenti elenco NO
ruolo enumerazione Ruolo dell'autore del messaggio.
Valori possibili: sistema, utente, assistente, strumento
NO
rifiuto corda Messaggio di rifiuto generato dal modello. NO

Proprietà per function_call

argomenti

Nome TIPO Descrizione Valore predefinito
argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.

nome

Nome TIPO Descrizione Valore predefinito
nome corda Nome della funzione da chiamare.

chatCompletionMessageToolCallChunk

Nome TIPO Descrizione Richiesto Valore predefinito
indice numero intero
Id corda ID della chiamata allo strumento. NO
tipo enumerazione Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: funzione
NO
funzione oggetto NO

Proprietà per la funzione

nome

Nome TIPO Descrizione Valore predefinito
nome corda Nome della funzione da chiamare.

argomenti

Nome TIPO Descrizione Valore predefinito
argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.

opzioni flusso di completamento chat

Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.

Nome TIPO Descrizione Richiesto Valore predefinito
includi_utilizzo booleano Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE] messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il choices campo sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null.
NO

chatCompletionChoiceLogProbs

Informazioni sulla probabilità di log per la scelta.

Nome TIPO Descrizione Richiesto Valore predefinito
contenuto elenco Un elenco di token di contenuto del messaggio con informazioni sulla probabilità di log.
rifiuto elenco Un elenco di token di rifiuto del messaggio con informazioni sulla probabilità di log. NO

chatCompletionTokenLogprob (probabilità logaritmica del token di completamento chat)

Nome TIPO Descrizione Richiesto Valore predefinito
token corda Il token.
logprob numero La probabilità di log di questo token.
Byte elenco Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token.
top_logprobs elenco Elenco dei token più probabili e della loro probabilità di log, in questa posizione del token. In rari casi, potrebbe venire restituito un numero di top_logprobs inferiore a quelli richiesti.

messaggioRispostaCompletamentoChat

Messaggio di completamento della chat generato dal modello.

Nome TIPO Descrizione Richiesto Valore predefinito
ruolo chatCompletionResponseMessageRole Il ruolo dell'autore del messaggio di risposta.
rifiuto corda Messaggio di rifiuto generato dal modello.
contenuto corda Contenuto del messaggio.
chiamate_di_strumenti elenco Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. NO
chiamata_di_funzione chatCompletionFunctionCall Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. NO
contesto azureChatExtensionsMessageContext Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte estensioni chat di Azure OpenAI
nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando
si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente.
NO

ruoloMessaggioRispostaCompletamentoChat

Il ruolo dell'autore del messaggio di risposta.

Descrizione: il ruolo dell'autore del messaggio di risposta.

Tipo: string

Impostazione predefinita:

Valori enumerazione:

  • assistente

opzioneSceltaStrumentoCompletamentoChat

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti.

Questo componente può essere uno dei seguenti:

scelta dello strumento di completamento della chat

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: funzione
funzione oggetto

Proprietà per la funzione

nome

Nome TIPO Descrizione Valore predefinito
nome corda Nome della funzione da chiamare.

ParallelToolCalls

Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.

Nessuna proprietà definita per questo componente.

chiamateStrumentoMessaggioCompletamentoChat

Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni.

Nessuna proprietà definita per questo componente.

chatCompletionFunctionCall

Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.

Nome TIPO Descrizione Richiesto Valore predefinito
nome corda Nome della funzione da chiamare.
argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può generare parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.

utilizzo del completamento

Statistiche di utilizzo per la richiesta di completamento.

Nome TIPO Descrizione Richiesto Valore predefinito
prompt_tokens numero intero Numero di token nel prompt.
token_di_completamento numero intero Numero di token nel completamento generato.
total_tokens numero intero Numero totale di token usati nella richiesta (prompt + completamento).
dettagli_token_completamento oggetto Suddivisione dei token usati in un completamento. NO

Proprietà per completion_tokens_details

token di ragionamento

Nome TIPO Descrizione Valore predefinito
token di ragionamento numero intero Token generati dal modello per il ragionamento.

strumento di completamento della chat

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: funzione
funzione FunctionObject

ParametriDellaFunzione

I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.

Nessuna proprietà definita per questo componente.

FunctionObject

Nome TIPO Descrizione Richiesto Valore predefinito
descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
Parametri FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
NO
rigido booleano Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel campo parameters. Solo un subset di schema JSON è supportato quando strict è true. NO Falso

ResponseFormatText

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo di formato di risposta definito: text
Valori possibili: testo

ResponseFormatJsonObject

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo di formato di risposta definito: json_object
Valori possibili: json_object

FormatoDiRispostaSchemaJson

Schema per il formato di risposta, descritto come oggetto Schema JSON.

Nessuna proprietà definita per questo componente.

FormatoDiRispostaJsonSchema

Nome TIPO Descrizione Richiesto Valore predefinito
tipo enumerazione Tipo di formato di risposta definito: json_schema
Valori possibili: json_schema
json_schema oggetto

Proprietà per json_schema

descrizione

Nome TIPO Descrizione Valore predefinito
descrizione corda Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato.

nome

Nome TIPO Descrizione Valore predefinito
nome corda Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.

schema

Nome TIPO Descrizione Valore predefinito
schema FormatoRispostaSchemaJson Schema per il formato di risposta, descritto come oggetto Schema JSON.

rigido

Nome TIPO Descrizione Valore predefinito
rigido booleano Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo schema. Solo un subset di schema JSON è supportato quando strict è true. Falso

SceltaComuneDiCompletamentoChat

Nome TIPO Descrizione Richiesto Valore predefinito
indice numero intero NO
motivo_di_terminazione corda NO

creaRichiestaTraduzione

Richiesta di conversione.

Nome TIPO Descrizione Richiesto Valore predefinito
documento corda Il file audio da convertire.
richiesta corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0

risposta audio

Risposta di conversione o trascrizione quando response_format era json

Nome TIPO Descrizione Richiesto Valore predefinito
Testo corda Testo convertito o trascritto.

audioVerboseResponse

Risposta di conversione o trascrizione quando response_format era verbose_json

Nome TIPO Descrizione Richiesto Valore predefinito
Testo corda Testo convertito o trascritto.
attività corda Tipo di attività audio. NO
lingua corda Lingua. NO
durata numero Durata. NO
segmenti elenco NO

formato di risposta audio

Definisce il formato dell'output.

Descrizione: definisce il formato dell'output.

Tipo: string

Impostazione predefinita:

Valori enumerazione:

  • JSON
  • Testo
  • srt
  • verbose_json
  • vtt

creaRichiestaTrascrizione

Richiesta di trascrizione.

Nome TIPO Descrizione Richiesto Valore predefinito
documento corda L'oggetto file audio da trascrivere.
richiesta corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero La temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0
lingua corda La lingua dell'audio di input. Fornire la lingua di input in formato ISO-639-1 migliora l'accuratezza e la latenza. NO

segmento audio

Segmento di trascrizione o conversione.

Nome TIPO Descrizione Richiesto Valore predefinito
Id numero intero Identificatore del segmento. NO
cercare numero Offset del segmento. NO
Avvio numero Offset iniziale del segmento. NO
fine numero Offset finale del segmento. NO
Testo corda Testo del segmento. NO
Token elenco Token del testo. NO
temperatura numero Temperatura. NO
avg_logprob numero Probabilità media di log. NO
rapporto di compressione numero Rapporto di compressione. NO
problema_assente_voce numero Probabilità di no speech. NO

qualità dell'immagine

La qualità dell'immagine che verrà generata.

Descrizione: la qualità dell'immagine che verrà generata.

Tipo: string

Impostazione predefinita: standard

Nome enumerazione: quality

Valori enumerazione:

valore Descrizione
standard Qualità standard crea immagini di qualità standard.
disco rigido Qualità HD crea immagini con dettagli più definiti e maggiore coerenza nell'immagine.

imagesResponseFormat

Formato in cui vengono restituite le immagini generate.

Descrizione: il formato in cui vengono restituite le immagini generate.

Tipo: string

Impostazione predefinita: url

Nome enumerazione: imagesResponseFormat

Valori enumerazione:

valore Descrizione
URL. L'URL che fornisce l'accesso temporaneo per scaricare le immagini generate.
b64_json Le immagini generate vengono restituite come stringa con codifica Base64.

imageSize

Dimensioni delle immagini generate.

Descrizione: le dimensioni delle immagini generate.

Tipo: string

Impostazione predefinita: 1024×1024

Nome enumerazione: size

Valori enumerazione:

valore Descrizione
1792×1024 Le dimensioni desiderate dell'immagine generata sono 1792×1024 pixel.
1024×1792 Le dimensioni desiderate dell'immagine generata sono 1024×1792 pixel.
1024x1024 Le dimensioni desiderate dell'immagine generata sono 1024×1024 pixel.

stile dell'immagine

Stile delle immagini generate.

Descrizione: lo stile delle immagini generate.

Tipo: string

Impostazione predefinita: vivid

Nome enumerazione: style

Valori enumerazione:

valore Descrizione
vivido Vivid crea immagini iperrealistiche e drammatiche.
naturale Natural crea immagini più naturali e meno iperrealistiche.

richiestaDiGenerazioneImmagini

Nome TIPO Descrizione Richiesto Valore predefinito
richiesta corda Descrizione testuale delle immagini desiderate. La lunghezza massima è di 4,000 caratteri.
n numero intero Numero di immagini da generare. NO 1
dimensione / taglia imageSize Dimensioni delle immagini generate. NO 1024x1024
formato_risposta imagesResponseFormat Formato in cui vengono restituite le immagini generate. NO URL.
utente corda Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare gli abusi. NO
qualità imageQuality La qualità dell'immagine che verrà generata. NO standard
stile imageStyle Stile delle immagini generate. NO vivido

rispostaGeneraImmagini

Nome TIPO Descrizione Richiesto Valore predefinito
creato numero intero Il timestamp unix al momento della creazione dell'operazione.
dati elenco I dati del risultato dell'operazione, se l'operazione riesce

risultato immagine

L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.

Nome TIPO Descrizione Richiesto Valore predefinito
URL. corda L'URL dell'immagine. NO
b64_json corda L'immagine con codifica Base64 NO
risultati_filtro_contenuti dalleContentFilterResults Informazioni sui risultati del filtro dei contenuti. NO
testo_rivisto corda Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. NO
richiedi_filtro_risultati dalleFilterResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO

Estensioni di completamento

Le estensioni di completamento non fanno parte dell'ultima versione disponibile a livello generale della specifica di inferenza del piano dati di OpenAI di Azure.

Messaggio di chat

L'oggetto del messaggio della chat non fa parte dell'ultima versione disponibile a livello generale della specifica di inferenza del piano dati di OpenAI di Azure.

Sintesi vocale (anteprima)

Non fa parte dell'ultima versione disponibile a livello generale della specifica di inferenza del piano dati di OpenAI di Azure. Per questa funzionalità, fare riferimento alla versione di anteprima più recente.

Passaggi successivi

Informazioni su Modelli e ottimizzazione con l'API REST. Altre informazioni sui modelli sottostanti che alimentano OpenAI di Azure.