Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per Azure OpenAI.
API specs
La gestione e l'interazione con i modelli e le risorse OpenAI di Azure sono suddivise in tre aree API principali:
- Control plane
- Piano dati - Creazione
- Piano dati - Inferenza
Ogni superficie/specifica dell'API incapsula un set diverso di funzionalità openAI di Azure. Ogni API ha un proprio set univoco di versioni api di anteprima e stabile/disponibile a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.
Important
È ora disponibile una nuova API di inferenza di anteprima. Per altre informazioni, vedere la guida al ciclo di vita dell'API.
| API | Versione di anteprima più recente | Versione disponibile a livello generale più recente | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | L'API del piano di controllo viene usata per operazioni come la creazione di risorse, la distribuzione del modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo gestisce anche le operazioni possibili con funzionalità come Azure Resource Manager, Bicep, Terraform e l'interfaccia della riga di comando di Azure. |
| Data plane | v1 preview |
v1 |
Spec files | L'API del piano dati controlla le operazioni di inferenza e creazione. |
Authentication
Azure OpenAI fornisce due metodi per l'autenticazione. È possibile usare chiavi API o MICROSOFT Entra ID.
Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione
api-keyHTTP. La guida introduttiva fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.Autenticazione dell'ID Microsoft Entra: è possibile autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come
Authorizationintestazione. Il token fornito deve essere preceduto daBearer, ad esempioBearer YOUR_AUTH_TOKEN. È possibile leggere la guida pratica sull'autenticazione con Microsoft Entra ID.
Controllo delle versioni dell'API REST
Le API del servizio vengono versionate usando il api-version parametro di query. Tutte le versioni seguono la struttura della data AAAA-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenza del piano dati
Il resto dell'articolo illustra la 2025-04-01-preview versione di anteprima della specifica di inferenza del piano dati OpenAI di Azure.
Se si sta cercando la documentazione sulla versione più recente dell'API GA, vedere l'API di inferenza del piano dati ga più recente
Completamenti - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Crea un completamento per il prompt, i parametri e il modello scelto specificati.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di Ã~â'\â€â€â best_of essere maggiore di n.Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripetere la richiesta oltre al completamento | No | False |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. | No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> . |
No | None |
| logprobs | integer | Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituisce un elenco dei 5 token più probabili. L'API restituisce sempre l'oggetto logprob del token campionato, quindi possono essere presenti fino a logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Numero massimo di token che possono essere generati al completamento. Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello. |
No | 16 |
| n | integer | Numero di completamenti da generare per ogni richiesta. Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. | No | 0 |
| prompt | stringa o matrice | Richiesta di generazione di completamenti per, codificati come stringa, matrice di stringhe, matrice di token o matrice di matrici di token. Si noti che <|endoftext|> è il separatore di documento visualizzato dal modello durante il training, quindi se una richiesta non viene specificata, il modello viene generato come se dall'inizio di un nuovo documento. |
Yes | |
| seed | integer | Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| stop | stringa o matrice | Fino a quattro sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. | No | |
| stream | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Codice Python di esempio. |
No | False |
| suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre i valori inferiori come 0,2 rendono l'output più mirato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt, i parametri e il modello scelto specificati.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Risposte: Codice di stato: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporamenti - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da modelli e algoritmi di Machine Learning.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID di distribuzione del modello distribuito. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Numero di dimensioni che devono essere presenti gli incorporamenti di output risultanti. Supportato solo nei text-embedding-3 modelli e versioni successive. |
No | |
| encoding_format | string | Formato in cui restituire gli incorporamenti. Può essere float o base64. Il valore predefinito è float. |
No | |
| input | stringa o matrice | Testo di input da incorporare, codificato come stringa o matrice di token. Per incorporare più input in una singola richiesta, passare una matrice di stringhe o una matrice di matrici di token. L'input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni inferiori o inferiori a 2.048. |
Yes | |
| input_type | string | tipo di input della ricerca di incorporamento da usare | No | |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Restituisce gli incorporamenti per un determinato prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Risposte: Codice di stato: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Completamento della chat - Crea
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Crea un completamento per il messaggio di chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parametri per l'output audio. Obbligatorio quando viene richiesto l'output audio con modalities: ["audio"]. |
No | |
| └─ format | enum | Specifica il formato audio di output. Deve essere uno di wav, mp3, flacopus, o pcm16. Valori possibili: wav, mp3flac, , opus,pcm16 |
No | |
| └─ voice | enum | Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, novae shimmer.Valori possibili: alloy, echofable, onyx, , novashimmer |
No | |
| data_sources | array | Voci di configurazione per le estensioni della chat OpenAI di Azure che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| function_call | string o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla la funzione (se presente) chiamata dal modello. none indica che il modello non chiamerà una funzione e genera invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni.
auto è l'impostazione predefinita se sono presenti funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco di funzioni per cui il modello può generare input JSON. |
No | |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dal relativo ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
No | None |
| logprobs | boolean | Indica se restituire o meno le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
No | False |
| max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | No | |
| max_tokens | integer | Numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
No | |
| messages | array | Elenco di messaggi che comprendono la conversazione finora. Codice Python di esempio. | Yes | |
| metadata | object | Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. | No | |
| modalities | ChatCompletionModalities | Tipi di output che si desidera che il modello generi per questa richiesta. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita: ["text"]Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:["text", "audio"] |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| prediction | PredictionContent | Configurazione per un output stimato, che può migliorare notevolmente i tempi di risposta quando in anticipo sono note parti elevate della risposta del modello. Questo è più comune quando si rigenera un file con solo modifiche minime alla maggior parte del contenuto. | No | |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| reasoning_effort | enum |
solo modelli o1 Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.Valori possibili: low, medium, high |
No | |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzionalità è in versione beta. Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| stop | stringa o matrice | Fino a 4 sequenze in cui l'API smette di generare altri token. |
No | |
| store | boolean | Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di modellazione del modello. | No | |
| stream | boolean | Se impostato, vengono inviati differenziali parziali dei messaggi, ad esempio in ChatGPT. I token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Codice Python di esempio. |
No | False |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre i valori inferiori come 0,2 rendono l'output più mirato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcun strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita se sono presenti strumenti. |
No | |
| tools | array | Un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
No | |
| top_logprobs | integer | Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
logprobs deve essere impostato su true se viene usato questo parametro. |
No | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No | |
| user_security_context | userSecurityContext | Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione di intelligenza artificiale stessa e l'utente finale che interagisce con l'applicazione di intelligenza artificiale. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt, i parametri e il modello scelto specificati.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati di Ricerca di Azure e sull'identità gestita assegnata dal sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati vettoriali dell'immagine di Ricerca di Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati vettoriali di Ricerca di Azure, sul messaggio di assistente precedente e sull'identità gestita assegnata dall'utente.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per Azure Cosmos DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per il database Mongo fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per Elasticsearch fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per la risorsa Pinecone fornita.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Trascrizioni - Creazione
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Trascrive l'audio nella lingua di input.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID del modello da usare. Le opzioni sono gpt-4o-transcribe, gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, , whisper-1e gpt-4o-transcribe-diarize. |
Yes | |
| file | string | Oggetto file audio da trascrivere. | Yes | |
| language | string | Lingua dell'audio di input. Fornire il linguaggio di input nel formato ISO-639-1 migliora l'accuratezza e la latenza. | No | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
| timestamp_granularities[] | array | Granularità del timestamp da popolare per questa trascrizione.
response_format deve essere impostato verbose_json per usare le granularità del timestamp. Sono supportate entrambe o entrambe le opzioni seguenti: wordo segment. Nota: non esiste una latenza aggiuntiva per i timestamp dei segmenti, ma la generazione di timestamp delle parole comporta una latenza aggiuntiva. |
No | ['segment'] |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era uno di texto vttsrt). |
Examples
Example
Ottiene il testo trascritto e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene il testo trascritto e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduzioni - Creare
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Trascrive e converte l'audio di input in testo inglese.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | File audio da tradurre. | Yes | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt). |
Examples
Example
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati audio parlato forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Riconoscimento vocale - Creazione
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Genera audio dal testo di input.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Testo per cui sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. | Yes | |
| response_format | enum | Formato in cui sintetizzare l'audio. Valori possibili: mp3, opusaac, flac, , wavpcm |
No | |
| speed | number | Velocità dell'audio sintetizzato. Selezionare un valore da 0.25 a 4.0.
1.0 è l'impostazione predefinita. |
No | 1.0 |
| voice | enum | Voce da usare per la sintesi vocale. Valori possibili: alloy, echofable, onyx, , novashimmer |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Sintetizza l'audio dal testo fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Risposte: Codice di stato: 200
{
"body": "101010101"
}
Generazioni di immagini - Crea
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Genera un batch di immagini da una didascalia di testo in una distribuzione del modello di generazione di immagini specificata
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. | No | auto |
| n | integer | Numero di immagini da generare. Per dall-e-3, è supportato solo n=1. | No | 1 |
| output_compression | integer | Livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1 con il formato di output jpeg. | No | 100 |
| output_format | imagesOutputFormat | Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. | No | png |
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri per la serie gpt-image-1 e 4000 caratteri per dall-e-3 | Yes | |
| partial_images | integer | Numero di immagini parziali da generare. Questo parametro viene usato per le risposte di streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Se impostato su 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generato il numero completo di immagini parziali se l'immagine completa viene generata più rapidamente. | 0 | |
| stream | boolean | Modificare l'immagine in modalità streaming. | no | false |
| quality | imageQuality | Qualità dell'immagine che verrà generata. | No | auto |
| response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. Questo parametro non è supportato per gpt-image-1i modelli di serie che restituiranno sempre immagini con codifica Base64.Valori possibili: url, b64_json. |
No | url |
| size | imageSize | Dimensioni delle immagini generate. | No | auto |
| style | imageStyle | Stile delle immagini generate. Supportato solo per dall-e-3. | No | vivid |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No |
Responses
Codice di stato: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: impostazione predefinita
Descrizione: si è verificato un errore.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea immagini in base a un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Risposte: Codice di stato: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Generazioni di immagini - Modifica
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Modifica un'immagine da una didascalia di testo in una determinata distribuzione del modello gpt-image-1
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | stringa o matrice | Immagini da modificare. Deve essere un file di immagine supportato o una matrice di immagini. Ogni immagine deve essere un file png o jpg inferiore a 50 MB. | Yes | |
| input_fidelity | string | Controllare quanto sforzo il modello eserciterà per trovare le corrispondenze con lo stile e le caratteristiche, in particolare le caratteristiche facciali, delle immagini di input. Questo parametro è supportato solo per i modelli di serie gpt-image-1. Supporta high e low. |
no |
low. |
| mask | string | Immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indicano dove deve essere modificata l'immagine. Se sono disponibili più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, minore di 4 MB e avere le stesse dimensioni dell'immagine. | No | |
| n | integer | Numero di immagini da generare. Deve essere compreso tra 1 e 10. | No | 1 |
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri. | Yes | |
| quality | imageQuality | Qualità dell'immagine che verrà generata. | No | auto |
| partial_images | Numero di immagini parziali da generare. Questo parametro viene usato per le risposte di streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Se impostato su 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generato il numero completo di immagini parziali se l'immagine completa viene generata più rapidamente. | |||
| stream | boolean | Modificare l'immagine in modalità streaming. | no | false |
| response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | No | url |
| size | imageSize | Dimensioni delle immagini generate. | No | auto |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No |
Responses
Codice di stato: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: impostazione predefinita
Descrizione: si è verificato un errore.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Elenco - Assistenti
Note
L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Restituisce un elenco di assistenti.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Restituisce un elenco di assistenti.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Crea - Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Creare un assistente con un modello e istruzioni.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | Yes | ||
| name | string | Nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| └─ vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Creare un assistente con un modello e istruzioni.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Get - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera un assistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID dell'assistente da recuperare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Recupera un assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modifica - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica un assistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID dell'assistente da modificare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | No | ||
| name | string | Nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Esegue l'override dell'elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Esegue l'override dell'archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica un assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Elimina - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Eliminare un assistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID dell'assistente da eliminare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Elimina un assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Crea - Thread
Note
L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Creare un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Elenco di messaggi con cui avviare il thread. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| tool_resources | object | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No | |
| └─ vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Crea un thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Ottieni - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread da recuperare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera un thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifica - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread da modificare. È possibile modificare solo l'oggetto metadata . |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| tool_resources | object | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica un thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Elimina - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Eliminare un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread da eliminare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Elimina un thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Elenco - Messaggi
Note
L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Restituisce un elenco di messaggi per un determinato thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID dei thread a cui appartengono i messaggi. |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| run_id | query | No | string | Filtrare i messaggi in base all'ID di esecuzione che li ha generati. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Crea - Messaggio
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Creare un messaggio.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID dei thread per cui creare un messaggio. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. | No | |
| content | string | Contenuto del messaggio. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| role | string | Ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Creare un messaggio.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Ottieni - Messaggio
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recuperare un messaggio.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID dei thread a cui appartiene il messaggio. |
| message_id | path | Yes | string | ID del messaggio da recuperare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recuperare un messaggio.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifica - Messaggio
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica un messaggio.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread a cui appartiene il messaggio. |
| message_id | path | Yes | string | ID del messaggio da modificare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modificare un messaggio.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Creazione - Thread ed esecuzione
Note
L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Creare un thread ed eseguirlo in una richiesta.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Yes | |
| instructions | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | ID dei modelli da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none significa che il modello non chiamerà alcun strumento e genera invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. |
No | |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Creare un thread ed eseguirlo in una richiesta.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Elenco - Esecuzioni
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Restituisce un elenco di esecuzioni appartenenti a un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread a cui appartiene l'esecuzione. |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Restituisce un elenco di esecuzioni appartenenti a un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Crea - Esegui
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Creare un'esecuzione.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread da eseguire. |
| include[] | query | No | array | Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. | No | |
| additional_messages | array | Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. | No | |
| assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Yes | |
| instructions | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none significa che il modello non chiamerà alcun strumento e genera invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. |
No | |
| tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Creare un'esecuzione.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Get - Esegui
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera un'esecuzione.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID dei thread eseguiti. |
| run_id | path | Yes | string | ID dell'esecuzione da recuperare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Ottiene un'esecuzione.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifica - Esegui
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica un'esecuzione.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID dei thread eseguiti. |
| run_id | path | Yes | string | ID dell'esecuzione da modificare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica un'esecuzione.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Submit - Output degli strumenti da eseguire
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando un'esecuzione ha status: "requires_action" e required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate dello strumento dopo il completamento. Tutti gli output devono essere inviati in una singola richiesta.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID dei thread a cui appartiene questa esecuzione. |
| run_id | path | Yes | string | ID dell'esecuzione che richiede l'invio dell'output dello strumento. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| tool_outputs | array | Elenco di strumenti per i quali vengono inviati gli output. | Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Quando un'esecuzione ha status: "requires_action" e required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate dello strumento dopo il completamento. Tutti gli output devono essere inviati in una singola richiesta.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annulla - Esegui
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Annulla un'esecuzione che è in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread a cui appartiene questa esecuzione. |
| run_id | path | Yes | string | ID dell'esecuzione da annullare. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Annulla un'esecuzione che è in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Elenco - Passaggi di esecuzione
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Restituisce un elenco di passaggi di esecuzione appartenenti a un'esecuzione.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread a cui appartengono i passaggi di esecuzione ed esecuzione. |
| run_id | path | Yes | string | ID dell'esecuzione a cui appartengono i passaggi di esecuzione. |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Restituisce un elenco di passaggi di esecuzione appartenenti a un'esecuzione.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Get - Esegui passaggio
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera un passaggio di esecuzione.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID del thread a cui appartiene il passaggio di esecuzione ed esecuzione. |
| run_id | path | Yes | string | ID dell'esecuzione a cui appartiene il passaggio di esecuzione. |
| step_id | path | Yes | string | ID del passaggio di esecuzione da recuperare. |
| include[] | query | No | array | Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file. |
| api-version | query | Yes | string |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Recupera un passaggio di esecuzione.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Elenco - Archivi vettoriali
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Restituisce un elenco di archivi vettoriali.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Restituisce un elenco di archivi vettoriali.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Crea - Archivio vettoriale
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Creare un archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. |
No | |
| expires_after | vectorStoreExpirationAfter | Criteri di scadenza per un archivio vettoriale. | No | |
| file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| name | string | Nome dell'archivio vettoriale. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Crea un archivio vettoriale.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Get - Archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera un archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale da recuperare. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera un archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifica - Archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica un archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale da modificare. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Criteri di scadenza per un archivio vettoriale. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| name | string | Nome dell'archivio vettoriale. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica un archivio vettoriale.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Elimina - Archivio vettoriale
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Eliminare un archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale da eliminare. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Elimina un archivio vettoriale.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Elenco - File dell'archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Restituisce un elenco di file dell'archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartengono i file. |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| filter | query | No | string Valori possibili: in_progress, completed, failed, cancelled |
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Restituisce un elenco di file dell'archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Crea - File archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale per il quale creare un file. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. |
No | |
| file_id | string | ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Ottieni - File dell’archivio di vettori
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera un file di archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartiene il file. |
| file_id | path | Yes | string | ID del file da recuperare. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera un file di archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Elimina - File archivio vettoriale
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Eliminare un file dell'archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartiene il file. |
| file_id | path | Yes | string | ID del file da eliminare. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Eliminare un file dell'archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Aggiornare gli attributi in un file dell'archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartiene il file. |
| file_id | path | Yes | string | ID del file da aggiornare. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recuperare il contenuto del file dell'archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recuperare il contenuto analizzato di un file di archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale. |
| file_id | path | Yes | string | ID del file all'interno dell'archivio vettoriale. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Archivio vettoriale di ricerca
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Cercare in un archivio vettoriale blocchi pertinenti in base a un filtro di attributi di query e file.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale da cercare. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter o CompoundFilter | Filtro da applicare in base agli attributi del file. | No | |
| max_num_results | integer | Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi. | No | 10 |
| query | stringa o matrice | Stringa di query per una ricerca | Yes | |
| ranking_options | object | Opzioni di classificazione per la ricerca. | No | |
| └─ ranker | enum | Valori possibili: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. | No | False |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Crea - Batch file archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Creare un batch di file di archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale per il quale creare un batch di file. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. |
No | |
| file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Creare un batch di file di archivio vettoriale.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Risposte: Codice di stato: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Ottieni - Batch file archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera un batch di file dell'archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartiene il batch di file. |
| batch_id | path | Yes | string | ID del batch di file recuperato. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera un batch di file dell'archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annulla - Batch file archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Annullare un batch di file dell'archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartiene il batch di file. |
| batch_id | path | Yes | string | ID del batch di file da annullare. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Annullare un batch di file dell'archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Elenco - File batch dell'archivio vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Restituisce un elenco di file dell'archivio vettoriale in un batch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID dell'archivio vettoriale a cui appartengono i file. |
| batch_id | path | Yes | string | ID del batch di file a cui appartengono i file. |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordinare l'ordinamento in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine decrescente. |
| after | query | No | string | Cursore da usare nella paginazione.
after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| before | query | No | string | Cursore da usare nella paginazione.
before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| filter | query | No | string Valori possibili: in_progress, completed, failed, cancelled |
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Restituisce un elenco di file dell'archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Crea - Sessione in tempo reale
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime. Può essere configurato con gli stessi parametri di sessione dell'evento session.update client.
Risponde con un oggetto sessione, oltre a una client_secret chiave che contiene un token API temporaneo utilizzabile che può essere usato per autenticare i client del browser per l'API Realtime.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello. Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivare una sola volta. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite l'endpoint trascrizioni e deve essere considerata come guida per il contenuto audio di input anziché esattamente quello che il modello ha sentito. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione. |
No | |
| └─ language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza. |
No | |
| └─ model | string | Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, e .whisper-1 |
No | |
| └─ prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| instructions | string | Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_response_output_tokens | integer o stringa | Numero massimo di token di output per una singola risposta di assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf. |
No | |
| modalities | Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"]. |
No | ||
| model | string | Nome della distribuzione utilizzata per questa sessione. |
No | |
| output_audio_format | enum | Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw.Per pcm16, l'audio di output viene campionato a una velocità di 24 kHz.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Per i modelli audio una temperatura di 0,8 è altamente consigliata per ottenere prestazioni ottimali. |
No | 0.8 |
| tool_choice | string | Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione. |
No | auto |
| tools | array | Strumenti (funzioni) disponibili per il modello. | No | |
| turn_detection | object | Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente. Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata. |
No | |
| └─ create_response | boolean | Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere.
low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente.
auto è l'impostazione predefinita ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento dei turni. Valori possibili: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Codice di stato: 200
Descrizione: sessione creata correttamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Crea - Trascrizione sessione in tempo reale
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime specificamente per le trascrizioni in tempo reale.
Può essere configurato con gli stessi parametri di sessione dell'evento transcription_session.update client.
Risponde con un oggetto sessione, oltre a una client_secret chiave che contiene un token API temporaneo utilizzabile che può essere usato per autenticare i client del browser per l'API Realtime.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello. Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio di input. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione. |
No | |
| └─ language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza. |
No | |
| └─ model | enum | Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1.Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| modalities | Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"]. |
No | ||
| turn_detection | object | Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente. Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata. |
No | |
| └─ create_response | boolean | Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere.
low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente.
auto è l'impostazione predefinita ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento dei turni. Valori possibili: server_vad, semantic_vad |
No |
Responses
Codice di stato: 200
Descrizione: sessione creata correttamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Crea una risposta del modello.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | stringa o matrice | Model inputs | Yes | |
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte. |
No | |
| max_output_tokens | integer | Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione. |
No | |
| parallel_tool_calls | boolean | Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. |
No | True |
| previous_response_id | string | ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. Altre informazioni sullo stato della conversazione. |
No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. | No | |
| store | boolean | Indica se archiviare la risposta del modello generata per il recupero successivo tramite API. |
No | True |
| stream | boolean | Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server. Per altre informazioni, vedere la sezione Streaming di seguito. |
No | False |
| text | object | Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more: - Input e output di testo - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Oggetto che specifica il formato che il modello deve restituire. La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito.Il formato predefinito non include { "type": "text" } opzioni aggiuntive.Non consigliato per i modelli gpt-4o e versioni successive: L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano. |
No | |
| tool_choice | ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare. |
No | |
| tools | array | Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .Le due categorie di strumenti che è possibile fornire il modello sono: - Strumenti predefiniti: strumenti forniti da OpenAI che estendono model's capabilities |
No | |
| truncation | enum | Strategia di troncamento da usare per la risposta del modello. - auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione. - disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.Valori possibili: auto, disabled |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Risposte - Elementi di input
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera una risposta del modello con l'ID specificato.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID della risposta da recuperare. |
| include | query | No | array | Campi aggiuntivi da includere nella risposta. Per altre informazioni, vedere il include parametro per la creazione della risposta precedente. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Elimina una risposta del modello con l'ID specificato.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID della risposta da eliminare. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
Codice di stato: 404
Descrizione: Non trovato
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Codice di stato: impostazione predefinita
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Risposte - Elenco di elementi di risposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Restituisce un elenco di elementi di input per una determinata risposta.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID della risposta per cui recuperare gli elementi di input. |
| limit | query | No | integer | Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordine in cui restituire gli elementi di input. Il valore predefinito è asc.- asc: restituisce gli elementi di input in ordine crescente.- desc: restituisce gli elementi di input in ordine decrescente. |
| after | query | No | string | ID elemento dopo l'elenco, utilizzato nella paginazione. |
| before | query | No | string | ID elemento da elencare prima, utilizzato nella paginazione. |
Request Header
Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornire la chiave API OpenAI di Azure qui |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Errore interno con dettagli aggiuntivi. | No | |
| param | string | No | ||
| type | string | No |
innerError
Errore interno con dettagli aggiuntivi.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto errore interno. | No | |
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No |
innerErrorCode
Codici di errore per l'oggetto errore interno.
| Property | Value |
|---|---|
| Description | Codici di errore per l'oggetto errore interno. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Errore interno con dettagli aggiuntivi. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Errore interno con dettagli aggiuntivi.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto errore interno. | No | |
| content_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No | |
| revised_prompt | string | Richiesta usata per generare l'immagine, se è presente una revisione al prompt. | No |
contentFilterCompletionTextSpan
Descrive un intervallo all'interno del testo di completamento generato. Offset 0 è il primo punto di codice UTF32 del testo di completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Offset del primo punto di codice UTF32 escluso dall'intervallo. Questo campo è sempre uguale a completion_start_offset per intervalli vuoti. Questo campo è sempre più grande di completion_start_offset per intervalli non vuoti. | Yes | |
| completion_start_offset | integer | Offset del punto di codice UTF32 che inizia l'intervallo. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informazioni sui risultati del filtro del contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se sono state rilevate e se sono state filtrate o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Risultati del filtro del contenuto per una singola richiesta nella richiesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No | |
| prompt_index | integer | No |
promptFilterResults
Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi.
Nessuna proprietà definita per questo componente.
dalleContentFilterResults
Informazioni sui risultati del filtro del contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. | No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dall'ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. | No | |
| max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | No | |
| max_tokens | integer | Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Non è compatibile con i modelli di serie o1. | No | 4096 |
| metadata | object | Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. | No | |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. | No | 0 |
| stop | stringa o matrice | Fino a 4 sequenze in cui l'API smette di generare altri token. | No | |
| store | boolean | Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di modellazione del modello. | No | |
| stream | boolean | Se impostato, vengono inviati differenziali parziali dei messaggi, ad esempio in ChatGPT. I token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente ad Azure OpenAI di monitorare e rilevare gli abusi. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire.
best_of deve essere maggiore di n.Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripetere la richiesta oltre al completamento |
No | False |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> . |
No | None |
| logprobs | integer | Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei 5 token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Numero massimo di token che è possibile generare nel completamento. Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello. |
No | 16 |
| n | integer | Numero di completamenti da generare per ogni richiesta. Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| prompt | stringa o matrice | Prompt/i per cui generare completamenti, codificati come stringa, matrice di stringhe, matrice di token o matrice di matrici di token. Si noti che <|endoftext|> è il separatore di documento visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello verrà generato come se dall'inizio di un nuovo documento. |
Yes | |
| seed | integer | Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| stop | stringa o matrice | Fino a 4 sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
No | |
| stream | boolean | Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Codice Python di esempio. |
No | False |
| suffix | string | Suffisso che segue un completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No |
createCompletionResponse
Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Elenco delle scelte di completamento del modello generato per il prompt di input. | Yes | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento. | Yes | |
| id | string | Identificatore univoco per il completamento. | Yes | |
| model | string | Modello utilizzato per il completamento. | Yes | |
| object | enum | Tipo di oggetto, che è sempre "text_completion" Valori possibili: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi. | No | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parametri per l'output audio. Obbligatorio quando viene richiesto l'output audio con modalities: ["audio"]. |
No | |
| └─ format | enum | Specifica il formato audio di output. Deve essere uno di wav, mp3, flacopus, o pcm16. Valori possibili: wav, mp3flac, , opus,pcm16 |
No | |
| └─ voice | enum | Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, novae shimmer.Valori possibili: alloy, echofable, onyx, , novashimmer |
No | |
| data_sources | array | Voci di configurazione per le estensioni della chat OpenAI di Azure che le usano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| frequency_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. |
No | 0 |
| function_call | string o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla la funzione (se presente) chiamata dal modello. none indica che il modello non chiamerà una funzione e genera invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.none è l'impostazione predefinita quando non sono presenti funzioni.
auto è l'impostazione predefinita se sono presenti funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco di funzioni per cui il modello può generare input JSON. |
No | |
| logit_bias | object | Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dal relativo ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
No | None |
| logprobs | boolean | Indica se restituire o meno le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
No | False |
| max_completion_tokens | integer | Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. | No | |
| max_tokens | integer | Numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello. |
No | |
| messages | array | Elenco di messaggi che comprendono la conversazione finora. Codice Python di esempio. | Yes | |
| metadata | object | Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. | No | |
| modalities | ChatCompletionModalities | Tipi di output che si desidera che il modello generi per questa richiesta. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita: ["text"]Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:["text", "audio"] |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Si noti che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| prediction | PredictionContent | Configurazione per un output stimato, che può migliorare notevolmente i tempi di risposta quando in anticipo sono note parti elevate della risposta del modello. Questo è più comune quando si rigenera un file con solo modifiche minime alla maggior parte del contenuto. | No | |
| presence_penalty | number | Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
No | 0 |
| reasoning_effort | enum |
solo modelli o1 Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.Valori possibili: low, medium, high |
No | |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che garantiscono che il modello corrisponda allo schema JSON fornito.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzionalità è in versione beta. Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| stop | stringa o matrice | Fino a 4 sequenze in cui l'API smette di generare altri token. |
No | |
| store | boolean | Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di modellazione del modello. | No | |
| stream | boolean | Se impostato, vengono inviati differenziali parziali dei messaggi, ad esempio in ChatGPT. I token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Codice Python di esempio. |
No | False |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita se sono presenti strumenti. |
No | |
| tools | array | Un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. |
No | |
| top_logprobs | integer | Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
logprobs deve essere impostato su true se viene usato questo parametro. |
No | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. |
No | |
| user_security_context | userSecurityContext | Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione di intelligenza artificiale stessa e l'utente finale che interagisce con l'applicazione di intelligenza artificiale. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. | No |
userSecurityContext
Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione di intelligenza artificiale stessa e l'utente finale che interagisce con l'applicazione di intelligenza artificiale. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Nome dell'applicazione. Le informazioni personali riservate non devono essere incluse in questo campo. | No | |
| end_user_id | string | Questo identificatore è l'ID utente microsoft Entra (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di intelligenza artificiale generativa. Le informazioni personali riservate non devono essere incluse in questo campo. | No | |
| end_user_tenant_id | string | ID tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di intelligenza artificiale generativa è multi-tenant. | No | |
| source_ip | string | Acquisisce l'indirizzo IP del client originale, accettando sia i formati IPv4 che IPv6. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
| name | string | Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione parameters definisce una funzione con un elenco di parametri vuoto. |
No |
chatCompletionFunctionCallOption
Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nome della funzione da chiamare. | Yes |
chatCompletionFunctionParameters
I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida/ per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
Nessuna proprietà definita per questo componente.
chatCompletionRequestMessage
Questo componente può essere uno dei seguenti:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente.
Con i modelli o1 e versioni successive, developer i messaggi sostituiscono i messaggi precedenti system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio dello sviluppatore. | Yes | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso developer.Valori possibili: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio di sistema. | Yes | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso system.Valori possibili: system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio utente. |
Yes | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso user.Valori possibili: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls non sia specificato o function_call . |
No | |
| function_call | object | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
| └─ arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | No | |
| └─ name | string | Nome della funzione da chiamare. | No | |
| name | string | Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. | No | |
| refusal | string | Messaggio di rifiuto dell'assistente. | No | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso assistant.Valori possibili: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto del messaggio dello strumento. | Yes | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso tool.Valori possibili: tool |
Yes | |
| tool_call_id | string | Chiamare lo strumento a cui risponde questo messaggio. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenuto del messaggio della funzione. | Yes | |
| name | string | Nome della funzione da chiamare. | Yes | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestSystemMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestUserMessageContentPart
Questo componente può essere uno dei seguenti:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestToolMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenuto di testo. | Yes | |
| type | enum | Tipo della parte di contenuto. Valori possibili: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Dati audio con codifica Base64. | No | |
| └─ format | enum | Formato dei dati audio codificati. Attualmente supporta "wav" e "mp3". Valori possibili: wav, mp3 |
No | |
| type | enum | Tipo della parte di contenuto. Sempre input_audio.Valori possibili: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione. Valori possibili: auto, low, high |
No | |
| └─ url | string | URL dell'immagine o dei dati dell'immagine con codifica base64. | No | |
| type | enum | Tipo della parte di contenuto. Valori possibili: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Messaggio di rifiuto generato dal modello. | Yes | |
| type | enum | Tipo della parte di contenuto. Valori possibili: refusal |
Yes |
azureChatExtensionConfiguration
Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
###Discriminator per azureChatExtensionConfiguration
Questo componente usa la proprietà type per distinguere tra tipi diversi:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureChatExtensionType
Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
| Property | Value |
|---|---|
| Description | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Ricerca di Azure quando viene usata come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parametri per Ricerca di Azure quando vengono usati come estensione di chat OpenAI di Azure. | No | |
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Parametri per Ricerca di Azure quando vengono usati come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Percorso endpoint assoluto per la risorsa di Ricerca di Azure da usare. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Ricerca di Azure configurata. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Nome dell'indice da usare come disponibile nella risorsa ricerca di Azure a cui si fa riferimento. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| query_type | azureSearchQueryType | Tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure. | No | |
| semantic_configuration | string | Configurazione semantica aggiuntiva per la query. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No |
azureSearchIndexFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Ricerca di Azure configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | No | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| image_vector_fields | array | Nomi di campi che rappresentano i dati del vettore di immagine. | No | |
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No | |
| vector_fields | array | Nomi dei campi che rappresentano i dati vettoriali. | No |
azureSearchQueryType
Tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure.
| Property | Value |
|---|---|
| Description | Tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando viene usata come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parametri da usare durante la configurazione delle estensioni di Azure OpenAI nelle chat di dati quando si usa Azure Cosmos DB per MongoDB vCore. | No | |
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Parametri da usare durante la configurazione delle estensioni di Azure OpenAI nelle chat di dati quando si usa Azure Cosmos DB per MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Opzioni di autenticazione per Azure OpenAI sui dati quando si usa una stringa di connessione. | Yes | |
| container_name | string | Nome del contenitore di risorse di Azure Cosmos DB. | Yes | |
| database_name | string | Nome del database vCore mongoDB da usare con Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Azure Cosmos DB configurata. | Yes | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Nome dell'indice vCore di MongoDB da usare con Azure Cosmos DB. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No |
azureCosmosDBFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Azure Cosmos DB configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | Yes | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No | |
| vector_fields | array | Nomi dei campi che rappresentano i dati vettoriali. | Yes |
elasticsearchChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Elasticsearch quando viene usata come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parametri da usare quando si configura Elasticsearch® come estensione di chat OpenAI di Azure. | No | |
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Parametri da usare quando si configura Elasticsearch® come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions o onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Endpoint di Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Elasticsearch® configurata. | No | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Nome dell'indice di Elasticsearch®. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| query_type | elasticsearchQueryType | Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No |
elasticsearchIndexFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Elasticsearch® configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | No | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No | |
| vector_fields | array | Nomi dei campi che rappresentano i dati vettoriali. | No |
elasticsearchQueryType
Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure.
| Property | Value |
|---|---|
| Description | Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Mongo DB quando viene usata come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parametri da usare quando si configura l'estensione OpenAI di Azure nelle chat di dati quando si usa Mongo DB. | No | |
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Parametri da usare quando si configura l'estensione OpenAI di Azure nelle chat di dati quando si usa Mongo DB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | False |
| app_name | string | Nome dell'applicazione Mongo DB. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI sui dati quando si usano un nome utente e una password. | Yes | |
| collection_name | string | Nome della raccolta Mongo DB. | Yes | |
| database_name | string | Nome del database Mongo DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Nome dell'endpoint del cluster Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa mongo DB configurata. | Yes | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Nome dell'indice mongo DB. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No |
mongoDBFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa mongo DB configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | Yes | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No | |
| vector_fields | array | Nomi dei campi che rappresentano i dati vettoriali. | Yes |
pineconeChatExtensionConfiguration
Rappresentazione specifica delle opzioni configurabili per Pinecone quando viene usata come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parametri per la configurazione delle estensioni di chat Di Azure OpenAI Pinecone. | No | |
| type | azureChatExtensionType | Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Parametri per la configurazione delle estensioni di chat Di Azure OpenAI Pinecone.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Opzioni di autenticazione per Azure OpenAI nei dati quando si usa una chiave API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, che si basa su un nome di distribuzione del modello di incorporamento interno nella stessa risorsa OpenAI di Azure. | Yes | |
| environment | string | Nome dell'ambiente di Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Pinecone configurata. | Yes | |
| in_scope | boolean | Indica se le query devono essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Nome dell'indice di database Pinecone. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| strictness | integer | La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. | No | |
| top_n_documents | integer | Numero massimo di documenti configurato per la funzionalità per la query configurata. | No |
pineconeFieldMappingOptions
Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Pinecone configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nomi dei campi di indice che devono essere considerati come contenuto. | Yes | |
| content_fields_separator | string | Modello separatore che i campi di contenuto devono usare. | No | |
| filepath_field | string | Nome del campo di indice da utilizzare come percorso file. | No | |
| title_field | string | Nome del campo di indice da utilizzare come titolo. | No | |
| url_field | string | Nome del campo di indice da usare come URL. | No |
onYourDataAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI nei dati.
Discriminante per onYourDataAuthenticationOptions
Questo componente usa la proprietà type per distinguere tra tipi diversi:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataContextProperty
Proprietà di contesto.
| Property | Value |
|---|---|
| Description | Proprietà di contesto. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Tipi di autenticazione supportati con Azure OpenAI nei dati.
| Property | Value |
|---|---|
| Description | Tipi di autenticazione supportati con Azure OpenAI nei dati. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI nei dati quando si usa una chiave API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Chiave API da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataConnectionStringAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI sui dati quando si usa una stringa di connessione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Stringa di connessione da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui dati quando si usano una coppia di chiavi e ID chiave Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Chiave elasticsearch da usare per l'autenticazione. | No | |
| key_id | string | ID chiave elasticsearch da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui dati quando si usa una chiave API con codifica Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Chiave API con codifica Elasticsearch da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataAccessTokenAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI sui dati quando si usa il token di accesso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Token di accesso da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI nei dati quando si usa un'identità gestita assegnata dal sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Opzioni di autenticazione per Azure OpenAI nei dati quando si usa un'identità gestita assegnata dall'utente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui dati quando si usano un nome utente e una password.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | Tipi di autenticazione supportati con Azure OpenAI nei dati. | Yes | |
| username | string | Nome utente da usare per l'autenticazione. | No |
onYourDataVectorizationSource
Rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI sui dati con ricerca vettoriale.
Questo componente usa la proprietà type per distinguere tra tipi diversi:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. | Yes |
onYourDataVectorizationSourceType
Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale.
| Property | Value |
|---|---|
| Description | Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, che si basa su una chiamata di endpoint OpenAI di Azure pubblica per gli incorporamenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Numero di dimensioni che gli incorporamenti devono avere. Supportato solo nei text-embedding-3 modelli e versioni successive. |
No | |
| endpoint | string | Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti. Deve essere nel formato .https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings Il parametro di query api-version non è consentito. |
No | |
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. | Yes |
onYourDataDeploymentNameVectorizationSource
I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome di distribuzione del modello di incorporamento interno nella stessa risorsa OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Specifica il nome della distribuzione del modello da usare per la vettorializzazione. La distribuzione di questo modello deve trovarsi nella stessa risorsa OpenAI di Azure, ma nei dati userà questa distribuzione del modello tramite una chiamata interna anziché una pubblica, che consente la ricerca vettoriale anche nelle reti private. | No | |
| dimensions | integer | Numero di dimensioni che gli incorporamenti devono avere. Supportato solo nei text-embedding-3 modelli e versioni successive. |
No | |
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. | Yes |
onYourDataIntegratedVectorizationSource
Rappresenta il vettore integrato definito all'interno della risorsa di ricerca.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. | Yes |
onYourDataModelIdVectorizationSource
I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un ID modello di servizio di ricerca. Attualmente supportato solo da Elasticsearch®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Specifica l'ID modello da utilizzare per la vettorializzazione. Questo ID modello deve essere definito nel servizio di ricerca. | No | |
| type | onYourDataVectorizationSourceType | Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. | Yes |
azureChatExtensionsMessageContext
Rappresentazione delle informazioni di contesto aggiuntive disponibili quando le estensioni della chat OpenAI di Azure sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI di Azure configurata per l'uso di un'estensione corrispondente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Tutti i documenti recuperati. | No | |
| citations | array | Risultato del recupero dell'origine dati, utilizzato per generare il messaggio di assistente nella risposta. | No | |
| intent | string | Finalità rilevata dalla cronologia delle chat, usata per passare al turno successivo per trasferire il contesto. | No |
citation
informazioni sulla citazione per un messaggio di risposta di completamento della chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | ID blocco della citazione. | No | |
| content | string | Contenuto della citazione. | Yes | |
| filepath | string | Percorso del file della citazione. | No | |
| rerank_score | number | Punteggio di rerank del documento recuperato. | No | |
| title | string | Titolo della citazione. | No | |
| url | string | URL della citazione. | No |
retrievedDocument
Documento recuperato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | ID blocco della citazione. | No | |
| content | string | Contenuto della citazione. | Yes | |
| data_source_index | integer | Indice dell'origine dati. | No | |
| filepath | string | Percorso del file della citazione. | No | |
| filter_reason | filterReason | Motivo del filtro del documento recuperato. | No | |
| original_search_score | number | Punteggio di ricerca originale del documento recuperato. | No | |
| rerank_score | number | Punteggio di rerank del documento recuperato. | No | |
| search_queries | array | Query di ricerca utilizzate per recuperare il documento. | No | |
| title | string | Titolo della citazione. | No | |
| url | string | URL della citazione. | No |
filterReason
Motivo del filtro del documento recuperato.
| Property | Value |
|---|---|
| Description | Motivo del filtro del documento recuperato. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Funzione chiamata dal modello. | Yes | |
| └─ arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | No | |
| └─ name | string | Nome della funzione da chiamare. | No | |
| id | string | ID della chiamata allo strumento. | Yes | |
| type | toolCallType | Tipo di chiamata allo strumento, in questo caso function. |
Yes |
toolCallType
Tipo di chiamata allo strumento, in questo caso function.
| Property | Value |
|---|---|
| Description | Tipo di chiamata allo strumento, in questo caso function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenuto del messaggio. | No | |
| tool_call_id | string | Chiamare lo strumento a cui risponde questo messaggio. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenuto del messaggio. | No | |
| name | string | Contenuto del messaggio. | No | |
| role | enum | Ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: function |
No |
createChatCompletionResponse
Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1. |
Yes | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. | Yes | |
| id | string | Identificatore univoco per il completamento della chat. | Yes | |
| model | string | Modello usato per il completamento della chat. | Yes | |
| object | enum | Tipo di oggetto, che è sempre chat.completion.Valori possibili: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi. | No | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionStreamResponse
Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input specificato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1. |
Yes | |
| created | integer | Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp. | Yes | |
| id | string | Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID. | Yes | |
| model | string | Modello per generare il completamento. | Yes | |
| object | enum | Tipo di oggetto, che è sempre chat.completion.chunk.Valori possibili: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello. Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo. |
No |
chatCompletionStreamResponseDelta
Delta di completamento della chat generato dalle risposte del modello in streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenuto del messaggio di blocco. | No | |
| function_call | object | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
| └─ arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | No | |
| └─ name | string | Nome della funzione da chiamare. | No | |
| refusal | string | Messaggio di rifiuto generato dal modello. | No | |
| role | enum | Ruolo dell'autore del messaggio. Valori possibili: system, user, assistant, tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | No | |
| └─ name | string | Nome della funzione da chiamare. | No | |
| id | string | ID della chiamata allo strumento. | No | |
| index | integer | Yes | ||
| type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: function |
No |
chatCompletionStreamOptions
Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE] messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il choices campo sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null. |
No |
chatCompletionChoiceLogProbs
Registrare le informazioni sulla probabilità per la scelta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Elenco di token di contenuto del messaggio con informazioni sulla probabilità di log. | Yes | |
| refusal | array | Elenco di token di rifiuto dei messaggi con informazioni di probabilità di log. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni di byte devono essere combinati per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token. |
Yes | |
| logprob | number | Probabilità del log di questo token. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Elenco dei token più probabili e della probabilità di log, in questa posizione del token. In rari casi, può essere presente un numero inferiore al numero di richieste restituite top_logprobs . |
Yes |
chatCompletionResponseMessage
Messaggio di completamento della chat generato dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Se viene richiesta la modalità di output audio, questo oggetto contiene dati sulla risposta audio del modello. | No | |
| └─ data | string | Byte audio con codifica Base64 generati dal modello, nel formato specificato nella richiesta. |
No | |
| └─ expires_at | integer | Timestamp Unix (in secondi) per quando questa risposta audio non sarà più accessibile nel server per l'uso nelle conversazioni a più turni. |
No | |
| └─ id | string | Identificatore univoco per questa risposta audio. | No | |
| └─ transcript | string | Trascrizione dell'audio generato dal modello. | No | |
| content | string | Contenuto del messaggio. | Yes | |
| context | azureChatExtensionsMessageContext | Rappresentazione delle informazioni di contesto aggiuntive disponibili quando le estensioni della chat OpenAI di Azure sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI di Azure configurata per l'uso di un'estensione corrispondente. | No | |
| function_call | chatCompletionFunctionCall | Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. |
No | |
| refusal | string | Messaggio di rifiuto generato dal modello. | Yes | |
| role | chatCompletionResponseMessageRole | Ruolo dell'autore del messaggio di risposta. | Yes | |
| tool_calls | array | Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. | No |
chatCompletionResponseMessageRole
Ruolo dell'autore del messaggio di risposta.
| Property | Value |
|---|---|
| Description | Ruolo dell'autore del messaggio di risposta. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
none è l'impostazione predefinita quando non sono presenti strumenti.
auto è l'impostazione predefinita se sono presenti strumenti.
Questo componente può essere uno dei seguenti:
chatCompletionNamedToolChoice
Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Nome della funzione da chiamare. | No | |
| type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: function |
Yes |
ParallelToolCalls
Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.
Nessuna proprietà definita per questo componente.
PredictionContent
Contenuto di output stimato statico, ad esempio il contenuto di un file di testo che viene rigenerato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o matrice | Contenuto che deve essere confrontato durante la generazione di una risposta del modello. Se i token generati corrispondono a questo contenuto, l'intera risposta del modello può essere restituita molto più rapidamente. | Yes | |
| type | enum | Tipo di contenuto previsto da fornire. Questo tipo è attualmente sempre content.Valori possibili: content |
Yes |
chatCompletionMessageToolCalls
Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione.
Nessuna proprietà definita per questo componente.
ChatCompletionModalities
Tipi di output che si desidera che il modello generi per questa richiesta. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:
["text"]
Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:
["text", "audio"]
Nessuna proprietà definita per questo componente.
chatCompletionFunctionCall
Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. | Yes | |
| name | string | Nome della funzione da chiamare. | Yes |
completionUsage
Statistiche di utilizzo per la richiesta di completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Numero di token nel completamento generato. | Yes | |
| completion_tokens_details | object | Suddivisione dei token usati in un completamento. | No | |
| └─ accepted_prediction_tokens | integer | Quando si usano output stimati, il numero di token nella stima visualizzata nel completamento. | No | |
| └─ audio_tokens | integer | Token di input audio generati dal modello. | No | |
| └─ reasoning_tokens | integer | Token generati dal modello per il ragionamento. | No | |
| └─ rejected_prediction_tokens | integer | Quando si usano output stimati, il numero di token nella stima che non sono stati visualizzati nel completamento. Tuttavia, come i token di ragionamento, questi token vengono ancora conteggiati nei token di completamento totali ai fini della fatturazione, dell'output e dei limiti della finestra di contesto. | No | |
| prompt_tokens | integer | Numero di token nel prompt. | Yes | |
| prompt_tokens_details | object | Dettagli dei token di richiesta. | No | |
| └─ audio_tokens | integer | Token di input audio presenti nel prompt. | No | |
| └─ cached_tokens | integer | Numero di token di richiesta memorizzati nella cache. | No | |
| total_tokens | integer | Numero totale di token usati nella richiesta (richiesta + completamento). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Tipo dello strumento. Attualmente è supportato solo function .Valori possibili: function |
Yes |
FunctionParameters
I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
L'omissione parameters definisce una funzione con un elenco di parametri vuoto.
Nessuna proprietà definita per questo componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
| name | string | Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. L'omissione parameters definisce una funzione con un elenco di parametri vuoto. |
No | |
| strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel parameters campo . Solo un subset di schema JSON è supportato quando strict è true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo di formato di risposta definito: textValori possibili: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo di formato di risposta definito: json_objectValori possibili: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Schema per il formato di risposta, descritto come oggetto Schema JSON.
Nessuna proprietà definita per questo componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. | No | |
| └─ name | string | Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | Schema per il formato di risposta, descritto come oggetto Schema JSON. | No | |
| └─ strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel schema campo. Solo un subset di schema JSON è supportato quando strict è true. |
No | False |
| type | enum | Tipo di formato di risposta definito: json_schemaValori possibili: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | File audio da tradurre. | Yes | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
audioResponse
Risposta di traduzione o trascrizione quando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo tradotto o trascritto. | Yes |
audioVerboseResponse
Risposta di traduzione o trascrizione quando response_format è stato verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Tipo di attività audio. | No | |
| text | string | Testo tradotto o trascritto. | Yes | |
| words | array | No |
audioResponseFormat
Definisce il formato dell'output.
| Property | Value |
|---|---|
| Description | Definisce il formato dell'output. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Oggetto file audio da trascrivere. | Yes | |
| language | string | Lingua dell'audio di input. Fornire il linguaggio di input nel formato ISO-639-1 migliora l'accuratezza e la latenza. | No | |
| prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. | No | 0 |
| timestamp_granularities[] | array | Granularità del timestamp da popolare per questa trascrizione.
response_format deve essere impostato verbose_json per usare le granularità del timestamp. Sono supportate entrambe o entrambe le opzioni seguenti: wordo segment. Nota: non esiste una latenza aggiuntiva per i timestamp dei segmenti, ma la generazione di timestamp delle parole comporta una latenza aggiuntiva. |
No | ['segment'] |
audioSegment
Segmento di trascrizione o traduzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilità media del log. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Offset di fine segmento. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Probabilità di "nessun parlato". | No | |
| seek | number | Offset del segmento. | No | |
| start | number | Offset iniziale segmento. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Token del testo. | No |
audioWord
Trascrizione o parola di traduzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Offset di fine parola. | No | |
| start | number | Offset iniziale parola. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Testo per cui sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. | Yes | |
| response_format | enum | Formato in cui sintetizzare l'audio. Valori possibili: mp3, opusaac, flac, , wavpcm |
No | |
| speed | number | Velocità dell'audio sintetizzato. Selezionare un valore da 0.25 a 4.0.
1.0 è l'impostazione predefinita. |
No | 1.0 |
| voice | enum | Voce da usare per la sintesi vocale. Valori possibili: alloy, echofable, onyx, , novashimmer |
Yes |
imageQuality
Qualità dell'immagine che verrà generata.
| Property | Value |
|---|---|
| Description | Qualità dell'immagine che verrà generata. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Formato in cui vengono restituite le immagini generate.
| Property | Value |
|---|---|
| Description | Formato in cui vengono restituite le immagini generate. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie.
| Property | Value |
|---|---|
| Description | Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
Dimensioni delle immagini generate.
| Property | Value |
|---|---|
| Description | Dimensioni delle immagini generate. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Stile delle immagini generate. Supportato solo per dall-e-3.
| Property | Value |
|---|---|
| Description | Stile delle immagini generate. Supportato solo per dall-e-3. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1.
| Property | Value |
|---|---|
| Description | Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. | No | auto |
| n | integer | Numero di immagini da generare. Per dall-e-3, è supportato solo n=1. | No | 1 |
| output_compression | integer | Livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1 con il formato di output jpeg. | No | 100 |
| output_format | imagesOutputFormat | Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. | No | png |
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri per i modelli di serie gpt-image-1 e 4000 caratteri per dall-e-3 | Yes | |
| quality | imageQuality | Qualità dell'immagine che verrà generata. | No | auto |
| response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. Supportato solo per dall-e-3. | No | url |
| size | imageSize | Dimensioni delle immagini generate. | No | auto |
| style | imageStyle | Stile delle immagini generate. Supportato solo per dall-e-3. | No | vivid |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | stringa o matrice | Immagini da modificare. Deve essere un file di immagine supportato o una matrice di immagini. Ogni immagine deve essere un file png o jpg inferiore a 25 MB. | Yes | |
| mask | string | Immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indicano dove deve essere modificata l'immagine. Se sono disponibili più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, minore di 4 MB e avere le stesse dimensioni dell'immagine. | No | |
| n | integer | Numero di immagini da generare. | No | 1 |
| prompt | string | Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri. | Yes | |
| quality | imageQuality | Qualità dell'immagine che verrà generata. | No | auto |
| response_format | imagesResponseFormat | Formato in cui vengono restituite le immagini generate. | No | url |
| size | imageSize | Dimensioni delle immagini generate. | No | auto |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Timestamp unix al momento della creazione dell'operazione. | Yes | |
| data | array | Dati del risultato dell'operazione, se l'operazione ha esito positivo | Yes | |
| usage | imageGenerationsUsage | Rappresenta i dettagli di utilizzo dei token per le richieste di generazione di immagini. Solo per i modelli di serie gpt-image-1. | No |
imageResult
L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | Immagine con codifica Base64 | No | |
| content_filter_results | dalleContentFilterResults | Informazioni sui risultati del filtro del contenuto. | No | |
| prompt_filter_results | dalleFilterResults | Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. | No | |
| revised_prompt | string | Richiesta usata per generare l'immagine, se è presente una revisione al prompt. | No | |
| url | string | URL dell'immagine. | No |
imageGenerationsUsage
Rappresenta i dettagli di utilizzo dei token per le richieste di generazione di immagini. Solo per i modelli di serie gpt-image-1.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Numero di token di input. | No | |
| input_tokens_details | object | Dettaglio dei token di input. | No | |
| └─ image_tokens | integer | Numero di token di immagine. | No | |
| └─ text_tokens | integer | Numero di token di testo. | No | |
| output_tokens | integer | Numero di token di output. | No | |
| total_tokens | integer | Numero totale di token usati. | No |
line
Oggetto linea contenuto costituito da una sequenza adiacente di elementi di contenuto, ad esempio parole e segni di selezione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Matrice di intervalli che rappresentano gli oggetti rilevati e le relative informazioni sul rettangolo di selezione. | Yes | |
| text | string | Yes |
span
Oggetto span che rappresenta un oggetto rilevato e le relative informazioni sul rettangolo di selezione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | Lunghezza dell'intervallo in caratteri, misurata in punti di codice Unicode. | Yes | |
| offset | integer | Offset di caratteri all'interno del testo in cui inizia l'intervallo. Questo offset viene definito come posizione del primo carattere dell'intervallo, contando dall'inizio del testo come punti di codice Unicode. | Yes | |
| polygon | array | Matrice di oggetti che rappresentano punti nel poligono che racchiude l'oggetto rilevato. | Yes | |
| text | string | Contenuto di testo dell'intervallo che rappresenta l'oggetto rilevato. | Yes |
runCompletionUsage
Statistiche di utilizzo correlate all'esecuzione. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, queuede così via).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Numero di token di completamento usati durante l'esecuzione. | Yes | |
| prompt_tokens | integer | Numero di token di richiesta usati durante l'esecuzione. | Yes | |
| total_tokens | integer | Numero totale di token usati (prompt + completamento). | Yes |
runStepCompletionUsage
Statistiche di utilizzo correlate al passaggio di esecuzione. Questo valore sarà null mentre lo stato del passaggio di esecuzione è in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Numero di token di completamento usati nel corso del passaggio di esecuzione. | Yes | |
| prompt_tokens | integer | Numero di token di richiesta usati nel corso del passaggio di esecuzione. | Yes | |
| total_tokens | integer | Numero totale di token usati (prompt + completamento). | Yes |
assistantsApiResponseFormatOption
Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.
L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
Questo componente può essere uno dei seguenti:
assistantsApiResponseFormat
Oggetto che descrive l'output previsto del modello. Se json_object all'esecuzione è consentito passare solo function il tipo tools . Se text il modello può restituire testo o qualsiasi valore necessario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Deve essere uno di text o json_object. |
No | text |
Tipo di enumerazione: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Rappresenta un oggetto assistant che può chiamare il modello e usare gli strumenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato l'assistente. | Yes | |
| description | string | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
Yes | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| instructions | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri. |
Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
Yes | |
| model | string | ID del modello da usare. | Yes | |
| name | string | Nome dell'assistente. La lunghezza massima è di 256 caratteri. |
Yes | |
| object | string | Tipo di oggetto, che è sempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, file_searcho function. |
Yes | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
Enumerazione dell'oggetto: AssistantObjectType
| Value | Description |
|---|---|
| assistant | Tipo di oggetto, che è sempre assistente |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | Yes | ||
| name | string | Nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| └─ vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | No | ||
| name | string | Nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Esegue l'override dell'elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Esegue l'override dell'archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Enumerazione dell'oggetto: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Tipo di strumento da definire: code_interpreter |
Yes |
Enumerazione tipo: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Esegue l'override dello strumento di ricerca file. | No | |
| └─ max_num_results | integer | Numero massimo di risultati restituiti dallo strumento di ricerca file. Il valore predefinito è 20 per i modelli gpt-4* e 5 per gpt-3.5-turbo. Questo numero deve essere compreso tra 1 e 50 inclusi. Si noti che lo strumento di ricerca file può restituire meno dei max_num_results risultati. |
No | |
| type | string | Tipo di strumento da definire: file_search |
Yes |
Enumerazione tipo: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Tipo di strumento da definire: file_search |
Yes |
Enumerazione tipo: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Definizione della funzione. | Yes | |
| └─ description | string | Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. | No | |
| └─ name | string | Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida/ per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. | No | |
| type | string | Tipo di strumento da definire: function |
Yes |
Enumerazione tipo: assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Numero di messaggi più recenti dal thread durante la costruzione del contesto per l'esecuzione. | No | |
| type | string | Strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Se impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza del contesto del modello, max_prompt_tokens. |
Yes |
Enumerazione di tipo: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
Questo componente può essere uno dei seguenti:
assistantsNamedToolChoice
Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare uno strumento specifico.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | Nome della funzione da chiamare. | No | |
| type | string | Tipo dello strumento. Se type è function, il nome della funzione deve essere impostato |
Yes |
Enumerazione tipo: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Rappresenta un'esecuzione eseguita in un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID dell'assistente utilizzato per l'esecuzione di questa esecuzione. | Yes | |
| cancelled_at | integer | Timestamp Unix (in secondi) per il momento in cui l'esecuzione è stata annullata. | Yes | |
| completed_at | integer | Timestamp Unix (in secondi) per il completamento dell'esecuzione. | Yes | |
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stata creata l'esecuzione. | Yes | |
| expires_at | integer | Timestamp Unix (in secondi) per quando l'esecuzione scadrà. | Yes | |
| failed_at | integer | Timestamp Unix (in secondi) per quando l'esecuzione non è riuscita. | Yes | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| incomplete_details | object | Dettagli sul motivo per cui l'esecuzione è incompleta.
null Sarà se l'esecuzione non è incompleta. |
Yes | |
| └─ reason | string | Motivo per cui l'esecuzione è incompleta. Questo farà riferimento al limite di token specifico raggiunto nel corso dell'esecuzione. | No | |
| instructions | string | Istruzioni usate dall'assistente per questa esecuzione. | Yes | |
| last_error | object | Ultimo errore associato a questa esecuzione.
null Sarà se non sono presenti errori. |
Yes | |
| └─ code | string | Uno di server_error o rate_limit_exceeded. |
No | |
| └─ message | string | Descrizione leggibile dell'errore. | No | |
| max_completion_tokens | integer | Numero massimo di token di completamento specificati per essere stati usati durante l'esecuzione. |
Yes | |
| max_prompt_tokens | integer | Numero massimo di token di richiesta specificati per essere stati usati durante l'esecuzione. |
Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
Yes | |
| model | string | Modello utilizzato dall'assistente per questa esecuzione. | Yes | |
| object | string | Tipo di oggetto, che è sempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| required_action | object | Dettagli sull'azione necessaria per continuare l'esecuzione.
null Sarà se non è necessaria alcuna azione. |
Yes | |
| └─ submit_tool_outputs | object | Dettagli sugli output dello strumento necessari per continuare l'esecuzione. | No | |
| └─ tool_calls | array | Elenco delle chiamate degli strumenti pertinenti. | No | |
| └─ type | enum | Per il momento, questo è sempre submit_tool_outputs.Valori possibili: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
Yes | |
| started_at | integer | Timestamp Unix (in secondi) per l'avvio dell'esecuzione. | Yes | |
| status | string | Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelledfailed, , completedo expired. |
Yes | |
| temperature | number | Temperatura di campionamento utilizzata per questa esecuzione. Se non è impostato, il valore predefinito è 1. | No | |
| thread_id | string | ID dei thread eseguiti in come parte di questa esecuzione. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà strumenti e genera invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. |
Yes | |
| tools | array | Elenco di strumenti usati dall'assistente per questa esecuzione. | Yes | [] |
| top_p | number | Valore di campionamento del nucleo utilizzato per questa esecuzione. Se non è impostato, il valore predefinito è 1. | No | |
| truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | Yes | |
| usage | runCompletionUsage | Statistiche di utilizzo correlate all'esecuzione. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, queuede così via). |
Yes |
Enumerazione dell'oggetto: runObjectType
| Value | Description |
|---|---|
| thread.run | Tipo di oggetto run che è sempre thread.run |
Enumerazione status: RunObjectStatus
| Value | Description |
|---|---|
| queued | Stato in coda |
| in_progress | Stato in_progress |
| requires_action | Stato required_action |
| cancelling | Stato di annullamento |
| cancelled | Stato annullato |
| failed | Stato non riuscito |
| completed | Stato completato |
| expired | Stato scaduto |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. | No | |
| additional_messages | array | Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. | No | |
| assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Yes | |
| instructions | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà strumenti e genera invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. |
No | |
| tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| tool_outputs | array | Elenco di strumenti per i quali vengono inviati gli output. | Yes |
runToolCallObject
Oggetti chiamata dello strumento
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Definizione della funzione. | Yes | |
| └─ arguments | string | Argomenti previsti dal modello per passare alla funzione. | No | |
| └─ name | string | Nome della funzione. | No | |
| id | string | ID della chiamata allo strumento. Questo ID deve essere fatto riferimento quando si inviano gli output dello strumento in usando gli output dello strumento di invio per eseguire endpointendpoint. | Yes | |
| type | string | Per il tipo di strumento chiamare l'output è necessario. Per il momento, questo è sempre function. |
Yes |
Enumerazione type: RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID dell'assistente da usare per eseguire questa esecuzione. | Yes | |
| instructions | string | Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| max_completion_tokens | integer | Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| max_prompt_tokens | integer | Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details . |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| model | string | ID dei modelli da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true. |
No | None |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà strumenti e genera invece un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. |
No | |
| tool_resources | object | Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa o temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. | No |
threadObject
Rappresenta un thread che contiene messaggi.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato il thread. | Yes | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
Yes | |
| object | string | Tipo di oggetto, che è sempre thread. |
Yes | |
| tool_resources | object | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No |
Enumerazione dell'oggetto: ThreadObjectType
| Value | Description |
|---|---|
| thread | Tipo di oggetto thread che è sempre thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Elenco di messaggi con cui avviare il thread. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| tool_resources | object | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No | |
| └─ vector_stores | array | Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| tool_resources | object | Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Enumerazione dell'oggetto: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | Stato dell'oggetto di risposta del thread di eliminazione, ovvero thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Rappresenta un messaggio all'interno di un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Se applicabile, l'ID dell'assistente che ha creato il messaggio. | Yes | |
| attachments | array | Elenco di file allegati al messaggio e degli strumenti a cui sono stati aggiunti. | Yes | |
| completed_at | integer | Timestamp Unix (in secondi) per il completamento del messaggio. | Yes | |
| content | array | Contenuto del messaggio in matrice di testo e/o immagini. | Yes | |
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato il messaggio. | Yes | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| incomplete_at | integer | Timestamp Unix (in secondi) per il momento in cui il messaggio è stato contrassegnato come incompleto. | Yes | |
| incomplete_details | object | In un messaggio incompleto, informazioni dettagliate sul motivo per cui il messaggio è incompleto. | Yes | |
| └─ reason | string | Motivo per cui il messaggio è incompleto. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
Yes | |
| object | string | Tipo di oggetto, che è sempre thread.message. |
Yes | |
| role | string | Entità che ha generato il messaggio. Uno di user o assistant. |
Yes | |
| run_id | string | Se applicabile, l'ID dell'esecuzione associata alla creazione di questo messaggio. | Yes | |
| status | string | Stato del messaggio, che può essere in_progress, incompleteo completed. |
Yes | |
| thread_id | string | ID thread a cui appartiene il messaggio. | Yes |
Enumerazione dell'oggetto: MessageObjectType
| Value | Description |
|---|---|
| thread.message | Tipo di oggetto messaggio che è thread.message |
Enumerazione status: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
Role Enum: MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Delta contenente i campi modificati nel messaggio. | Yes | |
| └─ content | array | Contenuto del messaggio in matrice di testo e/o immagini. | No | |
| └─ role | string | Entità che ha generato il messaggio. Uno di user o assistant. |
No | |
| id | string | Identificatore del messaggio a cui è possibile fare riferimento negli endpoint API. | Yes | |
| object | string | Tipo di oggetto, che è sempre thread.message.delta. |
Yes |
Enumerazione dell'oggetto: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. | No | |
| content | string | Contenuto del messaggio. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| role | string | Ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione. |
Yes |
Enumerazione ruolo: CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Enumerazione dell'oggetto: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | Stato dell'oggetto di risposta del messaggio di eliminazione |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Fa riferimento a un file di immagine nel contenuto di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | ID file dell'immagine nel contenuto del messaggio. | No | |
| type | string | Sempre image_file. |
Yes |
Enumerazione tipo: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Tipo di file di immagine del contenuto del messaggio |
messageContentTextObject
Contenuto di testo che fa parte di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | Dati che costituiscono il testo. | No | |
| type | string | Sempre text. |
Yes |
Enumerazione tipo: messageContentTextObjectType
| Value | Description |
|---|---|
| text | Tipo di oggetto del contenuto del messaggio |
messageContentTextAnnotationsFileCitationObject
Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "recupero" per cercare i file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | ID del file specifico da cui deriva la citazione. | No | |
| start_index | integer | Yes | ||
| text | string | Testo nel contenuto del messaggio che deve essere sostituito. | Yes | |
| type | string | Sempre file_citation. |
Yes |
Enumerazione tipo: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Tipo di oggetto di citazione file |
messageContentTextAnnotationsFilePathObject
URL del file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | ID del file generato. | No | |
| start_index | integer | Yes | ||
| text | string | Testo nel contenuto del messaggio che deve essere sostituito. | Yes | |
| type | string | Sempre file_path. |
Yes |
Enumerazione tipo: FilePathObjectType
| Value | Description |
|---|---|
| file_path | Tipo di oggetto percorso file |
messageDeltaContentImageFileObject
Fa riferimento a un file di immagine nel contenuto di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | ID file dell'immagine nel contenuto del messaggio. | No | |
| index | integer | Indice della parte di contenuto nel messaggio. | Yes | |
| type | string | Sempre image_file. |
Yes |
Enumerazione tipo: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Contenuto di testo che fa parte di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Indice della parte di contenuto nel messaggio. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | Dati che costituiscono il testo. | No | |
| type | string | Sempre text. |
Yes |
Enumerazione tipo: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare i file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | ID del file specifico da cui deriva la citazione. | No | |
| └─ quote | string | Virgolette specifiche nel file. | No | |
| index | integer | Indice dell'annotazione nella parte del contenuto di testo. | Yes | |
| start_index | integer | No | ||
| text | string | Testo nel contenuto del messaggio che deve essere sostituito. | No | |
| type | string | Sempre file_citation. |
Yes |
Enumerazione tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
URL del file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | ID del file generato. | No | |
| index | integer | Indice dell'annotazione nella parte del contenuto di testo. | Yes | |
| start_index | integer | No | ||
| text | string | Testo nel contenuto del messaggio che deve essere sostituito. | No | |
| type | string | Sempre file_path. |
Yes |
Enumerazione tipo: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Rappresenta un passaggio in esecuzione di un'esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID dell'assistente associato al passaggio di esecuzione. | Yes | |
| cancelled_at | integer | Timestamp Unix (in secondi) per quando il passaggio di esecuzione è stato annullato. | Yes | |
| completed_at | integer | Timestamp Unix (in secondi) per quando il passaggio di esecuzione è stato completato. | Yes | |
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato il passaggio di esecuzione. | Yes | |
| expired_at | integer | Timestamp Unix (in secondi) per quando il passaggio di esecuzione è scaduto. Un passaggio viene considerato scaduto se l'esecuzione padre è scaduta. | Yes | |
| failed_at | integer | Timestamp Unix (in secondi) per quando il passaggio di esecuzione non è riuscito. | Yes | |
| id | string | Identificatore del passaggio di esecuzione, a cui è possibile fare riferimento negli endpoint API. | Yes | |
| last_error | object | Ultimo errore associato a questo passaggio di esecuzione.
null Sarà se non sono presenti errori. |
Yes | |
| └─ code | string | Uno di server_error o rate_limit_exceeded. |
No | |
| └─ message | string | Descrizione leggibile dell'errore. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
Yes | |
| object | string | Tipo di oggetto, che è sempre assistant.run.step. |
Yes | |
| run_id | string | ID dell'esecuzione di cui fa parte questo passaggio di esecuzione. | Yes | |
| status | string | Stato dell'esecuzione, che può essere in_progress, , cancelledfailed, completedo expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject | Dettagli del passaggio di esecuzione. | Yes | |
| thread_id | string | ID dei thread eseguiti. | Yes | |
| type | string | Tipo di passaggio di esecuzione, che può essere message_creation o tool_calls. |
Yes |
Enumerazione dell'oggetto: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Tipo di oggetto, che è sempre assistant.run.step |
Enumerazione type: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | Passaggio di esecuzione message_creation |
| tool_calls | Passaggio di esecuzione tool_calls |
enumerazione di stato: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | Stato di esecuzione in_progress |
| cancelled | Stato dell'esecuzione annullata |
| failed | Stato dell'esecuzione annullata |
| completed | Stato dell'esecuzione annullata |
| expired | Stato dell'esecuzione annullata |
runStepDeltaObject
Rappresenta un delta del passaggio di esecuzione, ad esempio i campi modificati in un passaggio di esecuzione durante lo streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Delta contenente i campi modificati nel passaggio di esecuzione. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject | Dettagli del passaggio di esecuzione. | No | |
| id | string | Identificatore del passaggio di esecuzione, a cui è possibile fare riferimento negli endpoint API. | Yes | |
| object | string | Tipo di oggetto, che è sempre thread.run.step.delta. |
Yes |
Enumerazione dell'oggetto: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Dettagli della creazione del messaggio tramite il passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | ID del messaggio creato da questo passaggio di esecuzione. | No | |
| type | string | Sempre message_creation. |
Yes |
Enumerazione tipo: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Dettagli della creazione del messaggio tramite il passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | ID del messaggio creato da questo passaggio di esecuzione. | No | |
| type | string | Sempre message_creation. |
Yes |
Enumerazione tipo: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Dettagli della chiamata allo strumento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpretero retrievalfunction. |
Yes | |
| type | string | Sempre tool_calls. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Dettagli della chiamata allo strumento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpretero file_searchfunction. |
No | |
| type | string | Sempre tool_calls. |
Yes |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
I dettagli dello strumento Interprete del codice chiamano il passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Definizione di chiamata dello strumento Interprete di codice. | Yes | |
| └─ input | string | Input per la chiamata dello strumento Interprete del codice. | No | |
| └─ outputs | array | Output della chiamata dello strumento Interprete del codice. L'interprete del codice può restituire uno o più elementi, incluso testo (logs) o immagini (image). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. |
No | |
| id | string | ID della chiamata allo strumento. | Yes | |
| type | string | Tipo di chiamata allo strumento. Questo sarà code_interpreter sempre per questo tipo di chiamata allo strumento. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
I dettagli dello strumento Interprete del codice chiamano il passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Definizione di chiamata dello strumento Interprete di codice. | No | |
| └─ input | string | Input per la chiamata dello strumento Interprete del codice. | No | |
| └─ outputs | array | Output della chiamata dello strumento Interprete del codice. L'interprete del codice può restituire uno o più elementi, incluso testo (logs) o immagini (image). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. |
No | |
| id | string | ID della chiamata allo strumento. | No | |
| index | integer | L'indice della chiamata dello strumento nello strumento chiama matrice. | Yes | |
| type | string | Tipo di chiamata allo strumento. Questo sarà code_interpreter sempre per questo tipo di chiamata allo strumento. |
Yes |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
L'output di testo dello strumento Interprete codice viene chiamato come parte di un passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Output di testo dalla chiamata dello strumento Interprete del codice. | Yes | |
| type | string | Sempre logs. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
L'output di testo dello strumento Interprete codice viene chiamato come parte di un passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Indice dell'output nella matrice di output. | Yes | |
| logs | string | Output di testo dalla chiamata dello strumento Interprete del codice. | No | |
| type | string | Sempre logs. |
Yes |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | ID file dell'immagine. | No | |
| type | string | Sempre image. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | ID file dell'immagine. | No | |
| index | integer | Indice dell'output nella matrice di output. | Yes | |
| type | string | Sempre image. |
Yes |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Per il momento, questo sarà sempre un oggetto vuoto. | Yes | |
| └─ results | array | Risultati della ricerca di file. | No | |
| id | string | ID dell'oggetto chiamata dello strumento. | Yes | |
| type | string | Tipo di chiamata allo strumento. Questo sarà file_search sempre per questo tipo di chiamata allo strumento. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Istanza del risultato della ricerca di file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenuto del risultato trovato. Il contenuto viene incluso solo se richiesto tramite il parametro di query di inclusione. | No | |
| file_id | string | ID del file in cui è stato trovato il risultato. | Yes | |
| file_name | string | Nome del file in cui è stato trovato il risultato. | Yes | |
| score | number | Punteggio del risultato. Tutti i valori devono essere un numero a virgola mobile compreso tra 0 e 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Per il momento, questo sarà sempre un oggetto vuoto. | Yes | |
| id | string | ID dell'oggetto chiamata dello strumento. | No | |
| index | integer | L'indice della chiamata dello strumento nello strumento chiama matrice. | Yes | |
| type | string | Tipo di chiamata allo strumento. Questo sarà retrieval sempre per questo tipo di chiamata allo strumento. |
Yes |
Enumerazione tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Definizione della funzione chiamata. | Yes | |
| └─ arguments | string | Argomenti passati alla funzione. | No | |
| └─ name | string | Nome della funzione. | No | |
| └─ output | string | Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. |
No | |
| id | string | ID dell'oggetto chiamata dello strumento. | Yes | |
| type | string | Tipo di chiamata allo strumento. Questo sarà function sempre per questo tipo di chiamata allo strumento. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Definizione della funzione chiamata. | No | |
| └─ arguments | string | Argomenti passati alla funzione. | No | |
| └─ name | string | Nome della funzione. | No | |
| └─ output | string | Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. |
No | |
| id | string | ID dell'oggetto chiamata dello strumento. | No | |
| index | integer | L'indice della chiamata dello strumento nello strumento chiama matrice. | Yes | |
| type | string | Tipo di chiamata allo strumento. Questo sarà function sempre per questo tipo di chiamata allo strumento. |
Yes |
Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
Criteri di scadenza per un archivio vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at. |
Yes | |
| days | integer | Numero di giorni dopo l'ora di ancoraggio che l'archivio vettoriale scadrà. | Yes |
Enumerazione di ancoraggio: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. |
vectorStoreObject
Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo file_search strumento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato l'archivio vettoriale. | Yes | |
| expires_after | vectorStoreExpirationAfter | Criteri di scadenza per un archivio vettoriale. | No | |
| expires_at | integer | Timestamp Unix (in secondi) per la scadenza dell'archivio vettoriale. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Numero di file annullati. | No | |
| └─ completed | integer | Numero di file elaborati correttamente. | No | |
| └─ failed | integer | Numero di file che non sono stati elaborati. | No | |
| └─ in_progress | integer | Numero di file in corso di elaborazione. | No | |
| └─ total | integer | Numero totale di file. | No | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| last_active_at | integer | Timestamp Unix (in secondi) per l'ultima attività dell'archivio vettoriale. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
Yes | |
| name | string | Nome dell'archivio vettoriale. | Yes | |
| object | enum | Tipo di oggetto, che è sempre vector_store.Valori possibili: vector_store |
Yes | |
| status | string | Stato dell'archivio vettoriale, che può essere expired, in_progresso completed. Lo stato completed indica che l'archivio vettoriale è pronto per l'uso. |
Yes | |
| usage_bytes | integer | Numero totale di byte utilizzati dai file nell'archivio vettoriale. | Yes |
Enumerazione status: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. |
No | |
| expires_after | vectorStoreExpirationAfter | Criteri di scadenza per un archivio vettoriale. | No | |
| file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| name | string | Nome dell'archivio vettoriale. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Criteri di scadenza per un archivio vettoriale. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri. |
No | |
| name | string | Nome dell'archivio vettoriale. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Enumerazione dell'oggetto: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | Stato dell'oggetto risposta dell'archivio vettoriale di eliminazione |
vectorStoreFileObject
Elenco di file collegati a un archivio vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. |
No | |
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato il file dell'archivio vettoriale. | Yes | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| last_error | object | Ultimo errore associato a questo file dell'archivio vettoriale.
null Sarà se non sono presenti errori. |
Yes | |
| └─ code | string | Uno di server_error o o invalid_fileunsupported_file . |
No | |
| └─ message | string | Descrizione leggibile dell'errore. | No | |
| object | string | Tipo di oggetto, che è sempre vector_store.file. |
Yes | |
| status | string | Stato del file dell'archivio vettoriale, che può essere in_progress, completed, cancelledo failed. Lo stato completed indica che il file dell'archivio vettoriale è pronto per l'uso. |
Yes | |
| usage_bytes | integer | Utilizzo totale dell'archivio vettoriale in byte. Si noti che questo può essere diverso dalle dimensioni del file originale. | Yes | |
| vector_store_id | string | ID dell'archivio vettoriale a cui è associato il file. | Yes |
Enumerazione dell'oggetto: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Enumerazione status: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Viene restituito quando la strategia di suddivisione in blocchi è sconosciuta. In genere, ciò è dovuto al fatto che il file è stato indicizzato prima dell'introduzione del chunking_strategy concetto nell'API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Sempre other. |
Yes |
tipo Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Sempre static. |
Yes |
type Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Numero di token che si sovrappongono tra blocchi. Il valore predefinito è 400.Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Numero massimo di token in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096. |
Yes |
autoChunkingStrategyRequestParam
Strategia predefinita. Questa strategia usa attualmente un max_chunk_size_tokens oggetto di 800 e chunk_overlap_tokens di 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Sempre auto.Valori possibili: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Sempre static.Valori possibili: static |
Yes |
chunkingStrategyRequestParam
Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia.
Questo componente può essere uno dei seguenti:
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. |
No | |
| file_id | string | ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Enumerazione dell'oggetto: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Batch di file collegati a un archivio vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Timestamp Unix (in secondi) per il momento in cui è stato creato il batch dei file dell'archivio vettoriale. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Numero di file annullati. | No | |
| └─ completed | integer | Numero di file elaborati. | No | |
| └─ failed | integer | Numero di file che non sono stati elaborati. | No | |
| └─ in_progress | integer | Numero di file in corso di elaborazione. | No | |
| └─ total | integer | Numero totale di file. | No | |
| id | string | Identificatore a cui è possibile fare riferimento negli endpoint API. | Yes | |
| object | string | Tipo di oggetto, che è sempre vector_store.file_batch. |
Yes | |
| status | string | Stato del batch di file dell'archivio vettoriale, che può essere in_progress, completedcancelledo failed. |
Yes | |
| vector_store_id | string | ID dell'archivio vettoriale a cui è associato il file. | Yes |
Enumerazione dell'oggetto: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Enumerazione status: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. |
No | |
| file_ids | array | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. |
Yes |
assistantStreamEvent
Rappresenta un evento generato durante lo streaming di un oggetto Run.
Ogni evento in un flusso di eventi inviati dal server ha una event proprietà e data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Vengono generati eventi ogni volta che viene creato un nuovo oggetto, passa a un nuovo stato o viene trasmesso in parti (delta). Ad esempio, viene generato thread.run.created quando viene creata una nuova esecuzione, thread.run.completed al termine di un'esecuzione e così via. Quando un Assistente sceglie di creare un messaggio durante un'esecuzione, viene generato un thread.message.created eventevento , thread.message.in_progress molti thread.message.delta eventi e infine un thread.message.completed evento.
È possibile aggiungere altri eventi nel tempo, pertanto è consigliabile gestire correttamente gli eventi sconosciuti nel codice.
Questo componente può essere uno dei seguenti:
threadStreamEvent
Questo componente può essere uno dei seguenti:
thread.created
Si verifica quando viene creato un nuovo thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Rappresenta un thread che contiene messaggi. | Yes | |
| event | string | Yes |
Data: threadObject
Enumerazione evento: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | Evento creato dal thread |
runStreamEvent
Questo componente può essere uno dei seguenti:
thread.run.created
Si verifica quando viene creata una nuova esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Si verifica quando un'esecuzione passa a uno queued stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Si verifica quando un'esecuzione passa a uno in_progress stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Si verifica quando un'esecuzione passa a uno requires_action stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Si verifica al completamento di un'esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Si verifica quando un'esecuzione non riesce.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Si verifica quando un'esecuzione passa a uno cancelling stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Si verifica quando un'esecuzione viene annullata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Si verifica alla scadenza di un'esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione eseguita in un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enumerazione evento: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Questo componente può essere uno dei seguenti:
thread.run.step.created
Si verifica quando viene creato un passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumerazione evento: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Si verifica quando un passaggio di esecuzione passa a uno in_progress stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumerazione evento: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Si verifica quando vengono trasmessi parti di un passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Rappresenta un delta del passaggio di esecuzione, ad esempio i campi modificati in un passaggio di esecuzione durante lo streaming. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Enumerazione evento: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Si verifica al completamento di un passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumerazione evento: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Si verifica quando un passaggio di esecuzione ha esito negativo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumerazione evento: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Si verifica quando un passaggio di esecuzione viene annullato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumerazione evento: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Si verifica alla scadenza di un passaggio di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio in esecuzione di un'esecuzione. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumerazione evento: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Questo componente può essere uno dei seguenti:
thread.message.created
Si verifica quando viene creato un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Enumerazione evento: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Si verifica quando un messaggio passa a uno in_progress stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Enumerazione evento: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Si verifica quando vengono trasmessi parti di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Enumerazione evento: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Si verifica al completamento di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Enumerazione evento: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Si verifica al termine di un messaggio prima del completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Enumerazione evento: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Questo componente può essere uno dei seguenti:
Click
Azione di clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indica il pulsante del mouse premuto durante il clic. Uno di left, rightwheel, back, o forward.Valori possibili: left, rightwheel, , back,forward |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre impostata su click.Valori possibili: click |
Yes | |
| x | integer | Coordinata x in cui si è verificato il clic. |
Yes | |
| y | integer | Coordinata y in cui si è verificato il clic. |
Yes |
CodeInterpreterFileOutput
Output di una chiamata dello strumento dell'interprete di codice che è un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Tipo di output del file dell'interprete del codice. Sempre files.Valori possibili: files |
Yes |
CodeInterpreterTextOutput
Output di una chiamata dello strumento dell'interprete di codice che è testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Log della chiamata dello strumento dell'interprete del codice. |
Yes | |
| type | enum | Tipo dell'output di testo dell'interprete del codice. Sempre logs.Valori possibili: logs |
Yes |
CodeInterpreterTool
Strumento che esegue il codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | ID dei file su cui eseguire il codice. |
Yes | |
| type | enum | Tipo dello strumento dell'interprete di codice. Sempre code_interpreter.Valori possibili: code_interpreter |
Yes |
CodeInterpreterToolCall
Chiamata dello strumento per eseguire il codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Codice da eseguire. |
Yes | |
| id | string | ID univoco della chiamata dello strumento dell'interprete del codice. |
Yes | |
| results | array | Risultati della chiamata dello strumento dell'interprete del codice. |
Yes | |
| status | enum | Stato della chiamata dello strumento dell'interprete del codice. Valori possibili: in_progress, interpreting, completed |
Yes | |
| type | enum | Tipo di chiamata dello strumento dell'interprete del codice. Sempre code_interpreter_call.Valori possibili: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Questo componente può essere uno dei seguenti:
ComparisonFilter
Filtro utilizzato per confrontare una chiave di attributo specificata con un determinato valore usando un'operazione di confronto definita.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Chiave da confrontare con il valore. | Yes | |
| type | enum | Specifica l'operatore di confronto: eq, ne, gt, gte, lt, lte.- eq:Uguale- ne: diverso da- gt:Maggiore- gte: maggiore o uguale a- lt:Meno- lte: minore o uguale aValori possibili: eq, negt, gte, , ltlte |
Yes | |
| value | stringa o numero o valore booleano | Valore da confrontare con la chiave dell'attributo; supporta tipi stringa, number o booleani. | Yes |
CompoundFilter
Combinare più filtri usando and o or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Matrice di filtri da combinare. Gli elementi possono essere ComparisonFilter o CompoundFilter. |
Yes | |
| type | enum | Tipo di operazione: and o or.Valori possibili: and, or |
Yes |
ComputerAction
Questo componente può essere uno dei seguenti:
ComputerScreenshotImage
Immagine di screenshot del computer usata con lo strumento per l'uso del computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Identificatore di un file caricato che contiene lo screenshot. | No | |
| image_url | string | URL dell'immagine di screenshot. | No | |
| type | enum | Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.Valori possibili: computer_screenshot |
Yes |
ComputerTool
Strumento che controlla un computer virtuale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | Altezza dello schermo del computer. |
Yes | |
| display_width | number | Larghezza della visualizzazione del computer. |
Yes | |
| environment | enum | Tipo di ambiente del computer da controllare. Valori possibili: mac, windows, ubuntu, browser |
Yes | |
| type | enum | Tipo dello strumento di utilizzo del computer. Sempre computer_use_preview.Valori possibili: computer-use-preview |
Yes |
ComputerToolCall
Una chiamata di strumento a uno strumento per l'uso di un computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Identificatore usato per rispondere alla chiamata dello strumento con output. |
Yes | |
| id | string | ID univoco della chiamata al computer. | Yes | |
| pending_safety_checks | array | Controlli di sicurezza in sospeso per la chiamata al computer. |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Yes | |
| type | enum | Tipo di chiamata al computer. Sempre computer_call.Valori possibili: computer_call |
Yes |
ComputerToolCallOutput
Output di una chiamata allo strumento del computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dallo sviluppatore. |
No | |
| call_id | string | ID della chiamata dello strumento del computer che ha prodotto l'output. |
Yes | |
| id | string | ID dell'output delle chiamate dello strumento computer. |
No | |
| output | ComputerScreenshotImage | Immagine di screenshot del computer usata con lo strumento per l'uso del computer. |
Yes | |
| status | enum | Stato dell'input del messaggio. Uno di in_progress, completedo incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di output delle chiamate dello strumento computer. Sempre computer_call_output.Valori possibili: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dallo sviluppatore. |
No | |
| call_id | string | ID della chiamata dello strumento del computer che ha prodotto l'output. |
Yes | |
| id | string | ID univoco dell'output dello strumento di chiamata al computer. |
Yes | |
| output | ComputerScreenshotImage | Immagine di screenshot del computer usata con lo strumento per l'uso del computer. |
Yes | |
| status | enum | Stato dell'input del messaggio. Uno di in_progress, completedo incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di output delle chiamate dello strumento computer. Sempre computer_call_output.Valori possibili: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Controllo di sicurezza in sospeso per la chiamata al computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Tipo del controllo di sicurezza in sospeso. | Yes | |
| id | string | ID del controllo di sicurezza in sospeso. | Yes | |
| message | string | Dettagli sul controllo di sicurezza in sospeso. | Yes |
Content
Contenuto di input e output multi modale.
Questo componente può essere uno dei seguenti:
Coordinate
Coppia di coordinate x/y, ad esempio { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
No | |
| model | string | Modello usato per generare le risposte. | No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | stringa o matrice | Input di testo, immagine o file nel modello, usato per generare una risposta. | Yes | |
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte. |
No | |
| max_output_tokens | integer | Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. |
No | |
| parallel_tool_calls | boolean | Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. |
No | True |
| previous_response_id | string | ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. | No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. | No | |
| store | boolean | Indica se archiviare la risposta del modello generata per il recupero successivo tramite API. |
No | True |
| stream | boolean | Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server. | No | False |
| text | object | Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more: - input di testo e output - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Oggetto che specifica il formato che il modello deve restituire. La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito non include { "type": "text" } opzioni aggiuntive.Non consigliato per i modelli gpt-4o e versioni successive: L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano. |
No | |
| tool_choice | ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare. |
No | |
| tools | array | Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .Le due categorie di strumenti che è possibile fornire il modello sono: - Strumenti predefiniti |
No | |
| truncation | enum | Strategia di troncamento da usare per la risposta del modello. - auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca il risposta per adattare la finestra di contesto eliminando gli elementi di input al centro della conversazione. - disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.Valori possibili: auto, disabled |
No |
DoubleClick
Azione di doppio clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.Valori possibili: double_click |
Yes | |
| x | integer | Coordinata x in cui si è verificato il doppio clic. |
Yes | |
| y | integer | Coordinata y in cui si è verificato il doppio clic. |
Yes |
Drag
Azione di trascinamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Matrice di coordinate che rappresentano il percorso dell'azione di trascinamento. Le coordinate verranno visualizzate come matrice di oggetti, ad esempio[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è sempre impostata su drag.Valori possibili: drag |
Yes |
EasyInputMessage
Input del messaggio per il modello con un ruolo che indica l'istruzione seguente gerarchia. Le istruzioni fornite con il ruolo o developer hanno la system precedenza sulle istruzioni fornite con il user ruolo . Si presuppone che i messaggi con il assistant ruolo siano stati generati dal modello nelle interazioni precedenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o InputMessageContentList | Input di testo, immagine o audio per il modello, usato per generare una risposta. Può anche contenere risposte di assistente precedenti. |
Yes | |
| role | enum | Ruolo dell'input del messaggio. Uno di user, assistant, systemo developer.Valori possibili: user, assistant, system, developer |
Yes | |
| type | enum | Tipo di input del messaggio. Sempre message.Valori possibili: message |
No |
FileCitation
Citazione in un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID del file. |
Yes | |
| index | integer | Indice del file nell'elenco di file. |
Yes | |
| type | enum | Tipo di citazione del file. Sempre file_citation.Valori possibili: file_citation |
Yes |
FilePath
Percorso di un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID del file. |
Yes | |
| index | integer | Indice del file nell'elenco di file. |
Yes | |
| type | enum | Tipo del percorso del file. Sempre file_path.Valori possibili: file_path |
Yes |
FileSearchRanker
Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker.
| Property | Value |
|---|---|
| Description | Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Strumento che cerca il contenuto pertinente dai file caricati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter o CompoundFilter | Filtro da applicare in base agli attributi del file. | No | |
| max_num_results | integer | Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi. |
No | |
| ranking_options | object | Opzioni di classificazione per la ricerca. | No | |
| └─ ranker | enum | Ranker da usare per la ricerca di file. Valori possibili: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1. I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. |
No | 0 |
| type | enum | Tipo dello strumento di ricerca file. Sempre file_search.Valori possibili: file_search |
Yes | |
| vector_store_ids | array | ID degli archivi vettoriali da cercare. |
Yes |
FileSearchToolCall
Risultati di una chiamata allo strumento di ricerca file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID univoco della chiamata allo strumento di ricerca file. |
Yes | |
| queries | array | Query usate per cercare i file. |
Yes | |
| results | array | Risultati della chiamata allo strumento di ricerca file. |
No | |
| status | enum | Stato della chiamata allo strumento di ricerca file. Uno di in_progress, searchingincomplete o failed,Valori possibili: in_progress, searchingcompleted, , incomplete,failed |
Yes | |
| type | enum | Tipo di chiamata allo strumento di ricerca file. Sempre file_search_call.Valori possibili: file_search_call |
Yes |
FunctionTool
Definisce una funzione nel codice personalizzato che il modello può scegliere di chiamare.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione della funzione. Utilizzato dal modello per determinare se chiamare o meno la funzione. |
No | |
| name | string | Nome della funzione da chiamare. |
Yes | |
| parameters | object | Oggetto schema JSON che descrive i parametri della funzione. |
Yes | |
| strict | boolean | Indica se applicare la convalida rigorosa dei parametri. Valore predefinito true. |
Yes | |
| type | enum | Tipo dello strumento funzione. Sempre function.Valori possibili: function |
Yes |
FunctionToolCall
Chiamata di uno strumento per eseguire una funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Stringa JSON degli argomenti da passare alla funzione. |
Yes | |
| call_id | string | ID univoco della chiamata dello strumento di funzione generata dal modello. |
Yes | |
| id | string | ID univoco della chiamata dello strumento di funzione. |
Yes | |
| name | string | Nome della funzione da eseguire. |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di chiamata dello strumento di funzione. Sempre function_call.Valori possibili: function_call |
Yes |
FunctionToolCallOutput
Output di una chiamata dello strumento di funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID univoco della chiamata dello strumento di funzione generata dal modello. |
Yes | |
| id | string | ID univoco dell'output delle chiamate dello strumento di funzione. Popolato quando questo elemento viene restituito tramite API. |
No | |
| output | string | Stringa JSON dell'output della chiamata dello strumento di funzione. |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di output delle chiamate dello strumento di funzione. Sempre function_call_output.Valori possibili: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID univoco della chiamata dello strumento di funzione generata dal modello. |
Yes | |
| id | string | ID univoco dell'output dello strumento di chiamata di funzione. |
Yes | |
| output | string | Stringa JSON dell'output della chiamata dello strumento di funzione. |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di output delle chiamate dello strumento di funzione. Sempre function_call_output.Valori possibili: function_call_output |
Yes |
includable
Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
-
file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file. -
message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input. -
computer_call_output.output.image_url: includere gli URL dell'immagine dall'output delle chiamate al computer.
| Property | Value |
|---|---|
| Description | Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono: - file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.- message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.- computer_call_output.output.image_url: includere gli URL dell'immagine dall'output delle chiamate al computer. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Input audio per il modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Dati audio con codifica Base64. |
Yes | |
| format | enum | Formato dei dati audio. I formati attualmente supportati sono mp3 e wav.Valori possibili: mp3, wav |
Yes | |
| type | enum | Tipo dell'elemento di input. Sempre input_audio.Valori possibili: input_audio |
Yes |
InputContent
Questo componente può essere uno dei seguenti:
InputFile
Input di file per il modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Contenuto del file da inviare al modello. |
No | |
| file_id | string | ID del file da inviare al modello. |
No | |
| filename | string | Nome del file da inviare al modello. |
No | |
| type | enum | Tipo dell'elemento di input. Sempre input_file.Valori possibili: input_file |
Yes |
InputImage
Input dell'immagine per il modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Livello di dettaglio dell'immagine da inviare al modello. Uno di high, lowo auto. Il valore predefinito è auto.Valori possibili: high, low, auto |
Yes | |
| file_id | string | ID del file da inviare al modello. |
No | |
| image_url | string | URL dell'immagine da inviare al modello. UN URL completo o un'immagine con codifica Base64 in un URL dati. |
No | |
| type | enum | Tipo dell'elemento di input. Sempre input_image.Valori possibili: input_image |
Yes |
InputItem
Questo componente può essere uno dei seguenti:
InputMessage
Input del messaggio per il modello con un ruolo che indica l'istruzione seguente gerarchia. Le istruzioni fornite con il ruolo o developer hanno la system precedenza sulle istruzioni fornite con il user ruolo .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Elenco di uno o più elementi di input per il modello, contenente contenuto diverso types. |
Yes | |
| role | enum | Ruolo dell'input del messaggio. Uno di user, systemo developer.Valori possibili: user, system, developer |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di input del messaggio. Impostare sempre su message.Valori possibili: message |
No |
InputMessageContentList
Elenco di uno o più elementi di input per il modello, contenente tipi di contenuto diversi.
Nessuna proprietà definita per questo componente.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Elenco di uno o più elementi di input per il modello, contenente contenuto diverso types. |
Yes | |
| id | string | ID univoco dell'input del messaggio. |
Yes | |
| role | enum | Ruolo dell'input del messaggio. Uno di user, systemo developer.Valori possibili: user, system, developer |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo di input del messaggio. Impostare sempre su message.Valori possibili: message |
No |
InputText
Input di testo per il modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Input di testo per il modello. |
Yes | |
| type | enum | Tipo dell'elemento di input. Sempre input_text.Valori possibili: input_text |
Yes |
Item
Elemento di contenuto usato per generare una risposta.
Questo componente può essere uno dei seguenti:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Identificatore interno di un elemento a cui fare riferimento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID dell'elemento a cui fare riferimento. |
Yes | |
| type | enum | Tipo di elemento a cui fare riferimento. Sempre item_reference.Valori possibili: item_reference |
Yes |
ItemResource
Elemento di contenuto usato per generare una risposta.
Questo componente può essere uno dei seguenti:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Una raccolta di keypresse il modello desidera eseguire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinazione di tasti che il modello richiede di premere. Si tratta di una matrice di stringhe, ognuna che rappresenta una chiave. |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione keypress, questa proprietà è sempre impostata su keypress.Valori possibili: keypress |
Yes |
Metadata
Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.
Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Nessuna proprietà definita per questo componente.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
No | |
| model | string | Modello usato per generare le risposte. | No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
No | 1 |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. . |
No |
Move
Azione di spostamento del mouse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è sempre impostata su move.Valori possibili: move |
Yes | |
| x | integer | Coordinata x in cui spostarsi. |
Yes | |
| y | integer | Coordinata y in cui spostarsi. |
Yes |
OutputAudio
Output audio del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Dati audio con codifica Base64 dal modello. |
Yes | |
| transcript | string | Trascrizione dei dati audio del modello. |
Yes | |
| type | enum | Tipo di audio di output. Sempre output_audio.Valori possibili: output_audio |
Yes |
OutputContent
Questo componente può essere uno dei seguenti:
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Stringa JSON degli argomenti da passare alla funzione. |
Yes | |
| call_id | string | Identificatore usato per rispondere alla chiamata dello strumento con output. |
Yes | |
| content | array | Ragionamento del contenuto del testo. |
Yes | |
| id | string | Identificatore univoco del contenuto di ragionamento. |
Yes | |
| name | string | Nome della funzione da eseguire. |
Yes | |
| pending_safety_checks | array | Controlli di sicurezza in sospeso per la chiamata al computer. |
Yes | |
| queries | array | Query usate per cercare i file. |
Yes | |
| results | array | Risultati della chiamata allo strumento di ricerca file. |
No | |
| role | enum | Ruolo del messaggio di output. Sempre assistant.Valori possibili: assistant |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Yes | |
| type | enum | Tipo dell'oggetto. Sempre reasoning.Valori possibili: reasoning |
Yes |
OutputMessage
Messaggio di output del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenuto del messaggio di output. |
Yes | |
| id | string | ID univoco del messaggio di output. |
Yes | |
| role | enum | Ruolo del messaggio di output. Sempre assistant.Valori possibili: assistant |
Yes | |
| status | enum | Stato dell'input del messaggio. Uno di in_progress, completedo incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.Valori possibili: in_progress, completed, incomplete |
Yes | |
| type | enum | Tipo del messaggio di output. Sempre message.Valori possibili: message |
Yes |
OutputText
Output di testo del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Annotazioni dell'output di testo. |
Yes | |
| text | string | Output di testo del modello. |
Yes | |
| type | enum | Tipo del testo di output. Sempre output_text.Valori possibili: output_text |
Yes |
RealtimeSessionCreateRequest
Configurazione dell'oggetto sessione in tempo reale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello. Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivare una sola volta. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite l'endpoint trascrizioni e deve essere considerata come guida per il contenuto audio di input anziché esattamente quello che il modello ha sentito. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione. |
No | |
| └─ language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza. |
No | |
| └─ model | string | Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1. |
No | |
| └─ prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| instructions | string | Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_response_output_tokens | integer o stringa | Numero massimo di token di output per una singola risposta di assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf. |
No | |
| modalities | Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"]. |
No | ||
| model | string | Nome della distribuzione utilizzata per questa sessione. |
No | |
| output_audio_format | enum | Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw.Per pcm16, l'audio di output viene campionato a una velocità di 24 kHz.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Per i modelli audio una temperatura di 0,8 è altamente consigliata per ottenere prestazioni ottimali. |
No | 0.8 |
| tool_choice | string | Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione. |
No | auto |
| tools | array | Strumenti (funzioni) disponibili per il modello. | No | |
| turn_detection | object | Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente. Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata. |
No | |
| └─ create_response | boolean | Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere.
low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente.
auto è l'impostazione predefinita ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento dei turni. Valori possibili: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Nuova configurazione di sessione in tempo reale con una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Chiave temporanea restituita dall'API. | Yes | |
| └─ expires_at | integer | Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto. |
No | |
| └─ value | string | Chiave temporanea utilizzabile negli ambienti client per autenticare le connessioni all'API realtime. Usare questa opzione negli ambienti lato client anziché in un token API standard, che deve essere usato solo sul lato server. |
No | |
| input_audio_format | string | Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw. |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivare una sola volta. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite Whisper e deve essere considerata come materiale sussidiario approssimativo anziché la rappresentazione riconosciuta dal modello. |
No | |
| └─ model | string | Il modello da usare per la trascrizione whisper-1 è l'unico modello attualmente supportato. |
No | |
| instructions | string | Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta (ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_response_output_tokens | integer o stringa | Numero massimo di token di output per una singola risposta di assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf. |
No | |
| modalities | Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"]. |
No | ||
| output_audio_format | string | Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw. |
No | |
| temperature | number | Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Il valore predefinito è 0,8. |
No | |
| tool_choice | string | Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione. |
No | |
| tools | array | Strumenti (funzioni) disponibili per il modello. | No | |
| turn_detection | object | Configurazione per il rilevamento dei turni. Può essere impostato su null per disattivare. VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente. |
No | |
| └─ prefix_padding_ms | integer | Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms. |
No | |
| └─ silence_duration_ms | integer | Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente. |
No | |
| └─ threshold | number | Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | string | Il tipo di rilevamento dei turni è attualmente supportato solo server_vad . |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configurazione dell'oggetto sessione di trascrizione in tempo reale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello. Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio di input. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione. |
No | |
| └─ language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza. |
No | |
| └─ model | enum | Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, e .whisper-1Valori possibili: gpt-4o-transcribe, gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| modalities | Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"]. |
No | ||
| turn_detection | object | Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente. Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata. |
No | |
| └─ create_response | boolean | Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere.
low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente.
auto è l'impostazione predefinita ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento dei turni. Valori possibili: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Nuova configurazione della sessione di trascrizione in tempo reale.
Quando viene creata una sessione nel server tramite l'API REST, l'oggetto sessione contiene anche una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Chiave temporanea restituita dall'API. Presente solo quando la sessione viene creata nel server tramite l'API REST. |
Yes | |
| └─ expires_at | integer | Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto. |
No | |
| └─ value | string | Chiave temporanea utilizzabile negli ambienti client per autenticare le connessioni all'API realtime. Usare questa opzione negli ambienti lato client anziché in un token API standard, che deve essere usato solo sul lato server. |
No | |
| input_audio_format | string | Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw. |
No | |
| input_audio_transcription | object | Configurazione del modello di trascrizione. |
No | |
| └─ language | string | Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza. |
No | |
| └─ model | enum | Modello da usare per la trascrizione. Può essere gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15o whisper-1.Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. |
No | |
| modalities | Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"]. |
No | ||
| turn_detection | object | Configurazione per il rilevamento dei turni. Può essere impostato su null per disattivare. VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente. |
No | |
| └─ prefix_padding_ms | integer | Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms. |
No | |
| └─ silence_duration_ms | integer | Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente. |
No | |
| └─ threshold | number | Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | string | Il tipo di rilevamento dei turni è attualmente supportato solo server_vad . |
No |
Reasoning
Opzioni di configurazione per i modelli di ragionamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta. |
Yes | medium |
| summary | enum | Riepilogo del ragionamento eseguito dal modello. Ciò può essere utile per eseguire il debug e comprendere il processo di ragionamento del modello. Uno di concise o detailed.Valori possibili: concise, detailed |
No |
ReasoningItem
Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Ragionamento del contenuto del testo. |
Yes | |
| id | string | Identificatore univoco del contenuto di ragionamento. |
Yes | |
| status | enum | Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Tipo dell'oggetto. Sempre reasoning.Valori possibili: reasoning |
Yes |
Refusal
Rifiuto del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Spiegazione del rifiuto dal modello. |
Yes | |
| type | enum | Tipo di rifiuto. Sempre refusal.Valori possibili: refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Timestamp Unix (in secondi) di quando è stata creata questa risposta. |
Yes | |
| error | ResponseError | Oggetto di errore restituito quando il modello non riesce a generare una risposta. |
Yes | |
| id | string | Identificatore univoco per questa risposta. |
Yes | |
| incomplete_details | object | Informazioni dettagliate sul motivo per cui la risposta è incompleta. |
Yes | |
| └─ reason | enum | Motivo per cui la risposta è incompleta. Valori possibili: max_output_tokens, content_filter |
No | |
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte. |
Yes | |
| max_output_tokens | integer | Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione. |
No | |
| metadata | Metadata | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
Yes | |
| model | string | Modello usato per generare le risposte. | Yes | |
| object | enum | Tipo di oggetto di questa risorsa: sempre impostato su response.Valori possibili: response |
Yes | |
| output | array | Matrice di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendono dalla risposta del modello.- Anziché accedere al primo elemento nella output matrice e presupponendo che si tratti di un assistant messaggio con il contenuto generato dal modello, è consigliabile usare la output_text proprietà in cui è supportato negli SDK. |
Yes | |
| output_text | string | Proprietà utile solo SDK che contiene l'output di testo aggregato di tutti gli output_text elementi della output matrice, se presenti. Supportato negli SDK Python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. |
Yes | True |
| previous_response_id | string | ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. | No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. |
No | |
| status | enum | Stato della generazione della risposta. Uno di completed, failed, in_progresso incomplete.Valori possibili: completed, failed, in_progress, incomplete |
No | |
| temperature | number | Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. In genere è consigliabile modificare questa impostazione o top_p non entrambe. |
Yes | 1 |
| text | object | Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more: - input di testo e output - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Oggetto che specifica il formato che il modello deve restituire. La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito non include { "type": "text" } opzioni aggiuntive.Non consigliato per i modelli gpt-4o e versioni successive: L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano. |
No | |
| tool_choice | ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare. |
Yes | |
| tools | array | Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .Le due categorie di strumenti che è possibile fornire il modello sono: - Strumenti predefiniti |
Yes | |
| top_p | number | Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità. In genere è consigliabile modificare questa impostazione o temperature non entrambe. |
Yes | 1 |
| truncation | enum | Strategia di troncamento da usare per la risposta del modello. - auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione. - disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.Valori possibili: auto, disabled |
No | |
| usage | ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati. |
No | |
| user | string | Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. . |
No |
ResponseAudioDeltaEvent
Generato quando è presente una risposta audio parziale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Blocco di byte audio della risposta con codifica Base64. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.audio.delta.Valori possibili: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Generato al termine della risposta audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo dell'evento. Sempre response.audio.done.Valori possibili: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Generato quando è presente una trascrizione parziale dell'audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Trascrizione parziale della risposta audio. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.audio.transcript.delta.Valori possibili: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Generato al termine della trascrizione audio completa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo dell'evento. Sempre response.audio.transcript.done.Valori possibili: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Generato quando viene aggiunto un frammento di codice parziale dall'interprete di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Frammento di codice parziale aggiunto dall'interprete di codice. |
Yes | |
| output_index | integer | Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.code_interpreter_call.code.delta.Valori possibili: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Generato quando l'output del frammento di codice viene finalizzato dall'interprete di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Output del frammento di codice finale dell'interprete di codice. |
Yes | |
| output_index | integer | Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.code_interpreter_call.code.done.Valori possibili: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Generato al termine della chiamata dell'interprete del codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Chiamata dello strumento per eseguire il codice. |
Yes | |
| output_index | integer | Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.code_interpreter_call.completed.Valori possibili: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Generato quando è in corso una chiamata a un interprete di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Chiamata dello strumento per eseguire il codice. |
Yes | |
| output_index | integer | Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.code_interpreter_call.in_progress.Valori possibili: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Generato quando l'interprete di codice interpreta attivamente il frammento di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Chiamata dello strumento per eseguire il codice. |
Yes | |
| output_index | integer | Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.code_interpreter_call.interpreting.Valori possibili: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Generato al termine della risposta del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.completed.Valori possibili: response.completed |
Yes |
ResponseContentPartAddedEvent
Generato quando viene aggiunta una nuova parte di contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Indice della parte di contenuto aggiunta. |
Yes | |
| item_id | string | ID dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| output_index | integer | Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.content_part.added.Valori possibili: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Generato al termine di una parte del contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Indice della parte di contenuto eseguita. |
Yes | |
| item_id | string | ID dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| output_index | integer | Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.content_part.done.Valori possibili: response.content_part.done |
Yes |
ResponseCreatedEvent
Evento generato quando viene creata una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.created.Valori possibili: response.created |
Yes |
ResponseError
Oggetto di errore restituito quando il modello non riesce a generare una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Codice di errore per la risposta. |
Yes | |
| message | string | Descrizione leggibile dell'errore. |
Yes |
ResponseErrorCode
Codice di errore per la risposta.
| Property | Value |
|---|---|
| Description | Codice di errore per la risposta. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Generato quando si verifica un errore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Codice di errore. |
Yes | |
| message | string | Messaggio di errore. |
Yes | |
| param | string | Parametro di errore. |
Yes | |
| type | enum | Tipo dell'evento. Sempre error.Valori possibili: error |
Yes |
ResponseFailedEvent
Evento generato quando una risposta ha esito negativo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.failed.Valori possibili: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Generato quando viene completata una chiamata di ricerca file (risultati trovati).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID dell'elemento di output avviato dalla chiamata di ricerca file. |
Yes | |
| output_index | integer | Indice dell'elemento di output avviato dalla chiamata di ricerca file. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.file_search_call.completed.Valori possibili: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Generato quando viene avviata una chiamata di ricerca file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID dell'elemento di output avviato dalla chiamata di ricerca file. |
Yes | |
| output_index | integer | Indice dell'elemento di output avviato dalla chiamata di ricerca file. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.file_search_call.in_progress.Valori possibili: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Generato quando una ricerca di file è attualmente in corso di ricerca.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID dell'elemento di output avviato dalla chiamata di ricerca file. |
Yes | |
| output_index | integer | Indice dell'elemento di output in cui viene eseguita la ricerca della chiamata di ricerca file. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.file_search_call.searching.Valori possibili: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Generato quando è presente un delta degli argomenti di chiamata di funzione parziale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Delta degli argomenti di chiamata di funzione aggiunto. |
Yes | |
| item_id | string | ID dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione. |
Yes | |
| output_index | integer | Indice dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.function_call_arguments.delta.Valori possibili: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Generato quando gli argomenti della chiamata di funzione vengono finalizzati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Argomenti di chiamata di funzione. | Yes | |
| item_id | string | ID dell'elemento. | Yes | |
| output_index | integer | Indice dell'elemento di output. | Yes | |
| type | enum | Valori possibili: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Generato quando la risposta è in corso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.in_progress.Valori possibili: response.in_progress |
Yes |
ResponseIncompleteEvent
Evento generato al termine di una risposta come incompleto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Tipo dell'evento. Sempre response.incomplete.Valori possibili: response.incomplete |
Yes |
responseItemList
Elenco di elementi di risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Elenco di elementi utilizzati per generare questa risposta. | Yes | |
| first_id | string | ID del primo elemento dell'elenco. | Yes | |
| has_more | boolean | Indica se sono disponibili altri elementi. | Yes | |
| last_id | string | ID dell'ultimo elemento nell'elenco. | Yes | |
| object | enum | Il tipo di oggetto restituito deve essere list.Valori possibili: list |
Yes |
ResponseModalities
Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:
["text"]
Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:
["text", "audio"]
Nessuna proprietà definita per questo componente.
ResponseModalitiesTextOnly
Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:
["text"]
Questa API supporterà presto altre modalità di output, tra cui audio e immagini.
Nessuna proprietà definita per questo componente.
ResponseOutputItemAddedEvent
Generato quando viene aggiunto un nuovo elemento di output.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Indice dell'elemento di output aggiunto. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.output_item.added.Valori possibili: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Generato quando un elemento di output viene contrassegnato come completato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Indice dell'elemento di output contrassegnato come completato. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.output_item.done.Valori possibili: response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte. |
No | |
| max_output_tokens | integer | Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione. |
No | |
| previous_response_id | string | ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. | No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. |
No | |
| text | object | Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more: - input di testo e output - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Oggetto che specifica il formato che il modello deve restituire. La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito non include { "type": "text" } opzioni aggiuntive.Non consigliato per i modelli gpt-4o e versioni successive: L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano. |
No | |
| tool_choice | ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare. |
No | |
| tools | array | Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .Le due categorie di strumenti che è possibile fornire il modello sono: - Strumenti predefiniti |
No | |
| truncation | enum | Strategia di troncamento da usare per la risposta del modello. - auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione. - disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.Valori possibili: auto, disabled |
No |
ResponseRefusalDeltaEvent
Emesso quando è presente un testo di rifiuto parziale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Indice della parte contenuto a cui viene aggiunto il testo di rifiuto. |
Yes | |
| delta | string | Testo di rifiuto aggiunto. |
Yes | |
| item_id | string | ID dell'elemento di output a cui viene aggiunto il testo di rifiuto. |
Yes | |
| output_index | integer | Indice dell'elemento di output a cui viene aggiunto il testo di rifiuto. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.refusal.delta.Valori possibili: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Emesso quando il testo del rifiuto viene finalizzato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Indice della parte contenuto che il testo di rifiuto viene finalizzato. |
Yes | |
| item_id | string | ID dell'elemento di output che il testo di rifiuto viene finalizzato. |
Yes | |
| output_index | integer | Indice dell'elemento di output che il testo di rifiuto viene finalizzato. |
Yes | |
| refusal | string | Testo di rifiuto finalizzato. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.refusal.done.Valori possibili: response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Indice dell'annotazione aggiunta. |
Yes | |
| arguments | string | Argomenti di chiamata di funzione. | Yes | |
| code | string | Codice di errore. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Chiamata dello strumento per eseguire il codice. |
Yes | |
| content_index | integer | Indice della parte di contenuto che il contenuto del testo è finalizzato. |
Yes | |
| delta | string | Delta del testo aggiunto. |
Yes | |
| item | OutputItem | Elemento di output contrassegnato come completato. |
Yes | |
| item_id | string | ID dell'elemento di output che il contenuto del testo viene finalizzato. |
Yes | |
| message | string | Messaggio di errore. |
Yes | |
| output_index | integer | Indice dell'elemento di output finalizzato al contenuto di testo. |
Yes | |
| param | string | Parametro di errore. |
Yes | |
| part | OutputContent | Parte del contenuto eseguita. |
Yes | |
| refusal | string | Testo di rifiuto finalizzato. |
Yes | |
| response | response | Risposta incompleta. |
Yes | |
| text | string | Contenuto di testo finalizzato. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.output_text.done.Valori possibili: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Generato quando viene aggiunta un'annotazione di testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Indice dell'annotazione aggiunta. |
Yes | |
| content_index | integer | Indice della parte di contenuto a cui è stata aggiunta l'annotazione del testo. |
Yes | |
| item_id | string | ID dell'elemento di output a cui è stata aggiunta l'annotazione di testo. |
Yes | |
| output_index | integer | Indice dell'elemento di output a cui è stata aggiunta l'annotazione di testo. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.output_text.annotation.added.Valori possibili: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Generato quando è presente un delta di testo aggiuntivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Indice della parte di contenuto a cui è stato aggiunto il delta del testo. |
Yes | |
| delta | string | Delta del testo aggiunto. |
Yes | |
| item_id | string | ID dell'elemento di output a cui è stato aggiunto il delta del testo. |
Yes | |
| output_index | integer | Indice dell'elemento di output a cui è stato aggiunto il delta del testo. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.output_text.delta.Valori possibili: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Generato quando viene finalizzato il contenuto di testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Indice della parte di contenuto che il contenuto del testo è finalizzato. |
Yes | |
| item_id | string | ID dell'elemento di output che il contenuto del testo viene finalizzato. |
Yes | |
| output_index | integer | Indice dell'elemento di output finalizzato al contenuto di testo. |
Yes | |
| text | string | Contenuto di testo finalizzato. |
Yes | |
| type | enum | Tipo dell'evento. Sempre response.output_text.done.Valori possibili: response.output_text.done |
Yes |
ResponseUsage
Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Numero di token di input. | Yes | |
| output_tokens | integer | Numero di token di output. | Yes | |
| output_tokens_details | object | Dettaglio dei token di output. | Yes | |
| └─ reasoning_tokens | integer | Numero di token di ragionamento. | No | |
| total_tokens | integer | Numero totale di token usati. | Yes |
Screenshot
Azione screenshot.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è sempre impostata su screenshot.Valori possibili: screenshot |
Yes |
Scroll
Azione di scorrimento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Distanza di scorrimento orizzontale. |
Yes | |
| scroll_y | integer | Distanza di scorrimento verticale. |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è sempre impostata su scroll.Valori possibili: scroll |
Yes | |
| x | integer | Coordinata x in cui si è verificato lo scorrimento. |
Yes | |
| y | integer | Coordinata y in cui si è verificato lo scorrimento. |
Yes |
StopConfiguration
Fino a 4 sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.
Questo componente può essere uno dei seguenti:
TextResponseFormatConfiguration
Oggetto che specifica il formato che il modello deve restituire.
La configurazione { "type": "json_schema" } abilita gli output strutturati, che assicurano che il modello corrisponda allo schema JSON fornito.
Il formato predefinito non include { "type": "text" } opzioni aggiuntive.
Non consigliato per i modelli gpt-4o e versioni successive:
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
Questo componente può essere uno dei seguenti:
TextResponseFormatJsonSchema
Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. |
No | |
| name | string | Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Schema per il formato di risposta, descritto come oggetto Schema JSON. | Yes | |
| strict | boolean | Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel schema campo. Solo un subset di schema JSON è supportato quando strict è true. |
No | False |
| type | enum | Tipo di formato di risposta definito. Sempre json_schema.Valori possibili: json_schema |
Yes |
Tool
Questo componente può essere uno dei seguenti:
ToolChoiceFunction
Usare questa opzione per forzare il modello a chiamare una funzione specifica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nome della funzione da chiamare. | Yes | |
| type | enum | Per la chiamata di funzione, il tipo è sempre function.Valori possibili: function |
Yes |
ToolChoiceOptions
Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
| Property | Value |
|---|---|
| Description | Controlla quale strumento (se presente) viene chiamato dal modello.none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.required significa che il modello deve chiamare uno o più strumenti. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Indica che il modello deve usare uno strumento predefinito per generare una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo di strumento ospitato che deve essere usato dal modello. I valori consentiti sono: - file_search- computer_use_previewValori possibili: file_search, computer_use_preview |
Yes |
Type
Azione da digitare nel testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo da digitare. |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è sempre impostata su type.Valori possibili: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri. |
Yes |
UrlCitation
Citazione per una risorsa Web usata per generare una risposta del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Indice dell'ultimo carattere della citazione URL nel messaggio. |
Yes | |
| start_index | integer | Indice del primo carattere della citazione URL nel messaggio. |
Yes | |
| title | string | Titolo della risorsa Web. |
Yes | |
| type | enum | Tipo di citazione URL. Sempre url_citation.Valori possibili: url_citation |
Yes | |
| url | string | URL della risorsa Web. |
Yes |
VectorStoreFileAttributes
Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.
Nessuna proprietà definita per questo componente.
VectorStoreFileContentResponse
Rappresenta il contenuto analizzato di un file di archivio vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Contenuto analizzato del file. | Yes | |
| has_more | boolean | Indica se sono presenti più pagine di contenuto da recuperare. | Yes | |
| next_page | string | Token per la pagina successiva, se presente. | Yes | |
| object | enum | Tipo di oggetto, che è sempre vector_store.file_content.pageValori possibili: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter o CompoundFilter | Filtro da applicare in base agli attributi del file. | No | |
| max_num_results | integer | Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi. | No | 10 |
| query | stringa o matrice | Stringa di query per una ricerca | Yes | |
| ranking_options | object | Opzioni di classificazione per la ricerca. | No | |
| └─ ranker | enum | Valori possibili: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenuto di testo restituito dalla ricerca. | Yes | |
| type | enum | Tipo di contenuto. Valori possibili: text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri. |
Yes | |
| content | array | Blocchi di contenuto dal file. | Yes | |
| file_id | string | ID del file dell'archivio vettoriale. | Yes | |
| filename | string | Nome del file dell'archivio vettoriale. | Yes | |
| score | number | Punteggio di somiglianza per il risultato. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Elenco di elementi dei risultati della ricerca. | Yes | |
| has_more | boolean | Indica se sono presenti più risultati da recuperare. | Yes | |
| next_page | string | Token per la pagina successiva, se presente. | Yes | |
| object | enum | Tipo di oggetto, che è sempre vector_store.search_results.pageValori possibili: vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Nessuna proprietà definita per questo componente.
Wait
Azione di attesa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è sempre impostata su wait.Valori possibili: wait |
Yes |
ReasoningEffort
Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.
| Property | Value |
|---|---|
| Description | Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Si verifica quando si verifica un errore. Ciò può verificarsi a causa di un errore interno del server o di un timeout.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
Enumerazione evento: ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Si verifica al termine di un flusso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
Enumerazione evento: DoneEventEnum
| Value | Description |
|---|---|
| done |
Enumerazione dati: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Informazioni sui modelli e sull'ottimizzazione con l'API REST. Altre informazioni sui modelli sottostanti che alimentano Azure OpenAI.