Informazioni di riferimento per l'anteprima dell'API REST per i modelli di Azure OpenAI in Microsoft Foundry Models

Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per Azure OpenAI.

API specs

La gestione e l'interazione con i modelli e le risorse OpenAI di Azure sono suddivise in tre aree API principali:

  • Control plane
  • Piano dati - Creazione
  • Piano dati - Inferenza

Ogni superficie/specifica dell'API incapsula un set diverso di funzionalità openAI di Azure. Ogni API ha un proprio set univoco di versioni api di anteprima e stabile/disponibile a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.

Important

È ora disponibile una nuova API di inferenza di anteprima. Per altre informazioni, vedere la guida al ciclo di vita dell'API.

API Versione di anteprima più recente Versione disponibile a livello generale più recente Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files L'API del piano di controllo viene usata per operazioni come la creazione di risorse, la distribuzione del modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo gestisce anche le operazioni possibili con funzionalità come Azure Resource Manager, Bicep, Terraform e l'interfaccia della riga di comando di Azure.
Data plane v1 preview v1 Spec files L'API del piano dati controlla le operazioni di inferenza e creazione.

Authentication

Azure OpenAI fornisce due metodi per l'autenticazione. È possibile usare chiavi API o MICROSOFT Entra ID.

  • Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione api-key HTTP. La guida introduttiva fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.

  • Autenticazione dell'ID Microsoft Entra: è possibile autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come Authorization intestazione. Il token fornito deve essere preceduto da Bearer, ad esempio Bearer YOUR_AUTH_TOKEN. È possibile leggere la guida pratica sull'autenticazione con Microsoft Entra ID.

Controllo delle versioni dell'API REST

Le API del servizio vengono versionate usando il api-version parametro di query. Tutte le versioni seguono la struttura della data AAAA-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenza del piano dati

Il resto dell'articolo illustra la 2025-04-01-preview versione di anteprima della specifica di inferenza del piano dati OpenAI di Azure.

Se si sta cercando la documentazione sulla versione più recente dell'API GA, vedere l'API di inferenza del piano dati ga più recente

Completamenti - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Crea un completamento per il prompt, i parametri e il modello scelto specificati.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
best_of integer Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.

Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di Ã~â'\â€â€â best_of essere maggiore di n.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop.
No 1
echo boolean Ripetere la richiesta oltre al completamento No False
frequency_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. No 0
logit_bias object Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.

Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> .
No None
logprobs integer Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituisce un elenco dei 5 token più probabili. L'API restituisce sempre l'oggetto logprob del token campionato, quindi possono essere presenti fino a logprobs+1 elementi nella risposta.

Il valore massimo per logprobs è 5.
No None
max_tokens integer Numero massimo di token che possono essere generati al completamento.

Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello.
No 16
n integer Numero di completamenti da generare per ogni richiesta.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop.
No 1
presence_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. No 0
prompt stringa o matrice Richiesta di generazione di completamenti per, codificati come stringa, matrice di stringhe, matrice di token o matrice di matrici di token.

Si noti che <|endoftext|> è il separatore di documento visualizzato dal modello durante il training, quindi se una richiesta non viene specificata, il modello viene generato come se dall'inizio di un nuovo documento.
Yes
seed integer Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.

Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
stop stringa o matrice Fino a quattro sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. No
stream boolean Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Codice Python di esempio.
No False
suffix string Suffisso che segue un completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No None
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre i valori inferiori come 0,2 rendono l'output più mirato e deterministico.

In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea un completamento per il prompt, i parametri e il modello scelto specificati.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporamenti - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da modelli e algoritmi di Machine Learning.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID di distribuzione del modello distribuito.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Numero di dimensioni che devono essere presenti gli incorporamenti di output risultanti. Supportato solo nei text-embedding-3 modelli e versioni successive. No
encoding_format string Formato in cui restituire gli incorporamenti. Può essere float o base64. Il valore predefinito è float. No
input stringa o matrice Testo di input da incorporare, codificato come stringa o matrice di token. Per incorporare più input in una singola richiesta, passare una matrice di stringhe o una matrice di matrici di token. L'input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni inferiori o inferiori a 2.048. Yes
input_type string tipo di input della ricerca di incorporamento da usare No
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Restituisce gli incorporamenti per un determinato prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Completamento della chat - Crea

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Crea un completamento per il messaggio di chat

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Parametri per l'output audio. Obbligatorio quando viene richiesto l'output audio con modalities: ["audio"]. No
└─ format enum Specifica il formato audio di output. Deve essere uno di wav, mp3, flacopus, o pcm16.

Valori possibili: wav, mp3flac, , opus,pcm16
No
└─ voice enum Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, novae shimmer.

Valori possibili: alloy, echofable, onyx, , novashimmer
No
data_sources array Voci di configurazione per le estensioni della chat OpenAI di Azure che le usano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
No
frequency_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim.
No 0
function_call string o chatCompletionFunctionCallOption Deprecato a favore di tool_choice.

Controlla la funzione (se presente) chiamata dal modello.
none indica che il modello non chiamerà una funzione e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.

none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni.
No
functions array Deprecato a favore di tools.

Un elenco di funzioni per cui il modello può generare input JSON.
No
logit_bias object Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificati dal relativo ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
No None
logprobs boolean Indica se restituire o meno le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. No False
max_completion_tokens integer Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. No
max_tokens integer Numero massimo di token che possono essere generati nel completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello.
No
messages array Elenco di messaggi che comprendono la conversazione finora. Codice Python di esempio. Yes
metadata object Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. No
modalities ChatCompletionModalities Tipi di output che si desidera che il modello generi per questa richiesta.
La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:

["text"]

Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]
No
n integer Quante opzioni di completamento della chat generare per ogni messaggio di input. Verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. No 1
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
prediction PredictionContent Configurazione per un output stimato, che può migliorare notevolmente i tempi di risposta quando in anticipo sono note parti elevate della risposta del modello. Questo è più comune quando si rigenera un file con solo modifiche minime alla maggior parte del contenuto. No
presence_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
No 0
reasoning_effort enum solo modelli o1

Vincola lo sforzo sul ragionamento per i modelli di ragionamento.

I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.
Valori possibili: low, medium, high
No
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
seed integer Questa funzionalità è in versione beta.
Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
stop stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token.
No
store boolean Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di modellazione del modello. No
stream boolean Se impostato, vengono inviati differenziali parziali dei messaggi, ad esempio in ChatGPT. I token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Codice Python di esempio.
No False
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.
No None
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre i valori inferiori come 0,2 rendono l'output più mirato e deterministico.

In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
tool_choice chatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcun strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita se sono presenti strumenti. No
tools array Un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni.
No
top_logprobs integer Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. No
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso.
No
user_security_context userSecurityContext Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione di intelligenza artificiale stessa e l'utente finale che interagisce con l'applicazione di intelligenza artificiale. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea un completamento per il prompt, i parametri e il modello scelto specificati.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati di Ricerca di Azure e sull'identità gestita assegnata dal sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati vettoriali dell'immagine di Ricerca di Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati vettoriali di Ricerca di Azure, sul messaggio di assistente precedente e sull'identità gestita assegnata dall'utente.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per Azure Cosmos DB fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per il database Mongo fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per Elasticsearch fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per la risorsa Pinecone fornita.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Trascrizioni - Creazione

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Trascrive l'audio nella lingua di input.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
model string ID del modello da usare. Le opzioni sono gpt-4o-transcribe, gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, , whisper-1e gpt-4o-transcribe-diarize. Yes
file string Oggetto file audio da trascrivere. Yes
language string Lingua dell'audio di input. Fornire il linguaggio di input nel formato ISO-639-1 migliora l'accuratezza e la latenza. No
prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. No 0
timestamp_granularities[] array Granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato verbose_json per usare le granularità del timestamp. Sono supportate entrambe o entrambe le opzioni seguenti: wordo segment. Nota: non esiste una latenza aggiuntiva per i timestamp dei segmenti, ma la generazione di timestamp delle parole comporta una latenza aggiuntiva. No ['segment']

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Testo trascritto nel formato di output (quando response_format era uno di texto vttsrt).

Examples

Example

Ottiene il testo trascritto e i metadati associati dai dati audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene il testo trascritto e i metadati associati dai dati audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduzioni - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Trascrive e converte l'audio di input in testo inglese.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string File audio da tradurre. Yes
prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. No 0

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt).

Examples

Example

Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Riconoscimento vocale - Creazione

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Genera audio dal testo di input.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Testo per cui sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. Yes
response_format enum Formato in cui sintetizzare l'audio.
Valori possibili: mp3, opusaac, flac, , wavpcm
No
speed number Velocità dell'audio sintetizzato. Selezionare un valore da 0.25 a 4.0. 1.0 è l'impostazione predefinita. No 1.0
voice enum Voce da usare per la sintesi vocale.
Valori possibili: alloy, echofable, onyx, , novashimmer
Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Sintetizza l'audio dal testo fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Risposte: Codice di stato: 200

{
  "body": "101010101"
}

Generazioni di immagini - Crea

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Genera un batch di immagini da una didascalia di testo in una distribuzione del modello di generazione di immagini specificata

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
background imageBackground Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. No auto
n integer Numero di immagini da generare. Per dall-e-3, è supportato solo n=1. No 1
output_compression integer Livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1 con il formato di output jpeg. No 100
output_format imagesOutputFormat Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. No png
prompt string Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri per la serie gpt-image-1 e 4000 caratteri per dall-e-3 Yes
partial_images integer Numero di immagini parziali da generare. Questo parametro viene usato per le risposte di streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Se impostato su 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generato il numero completo di immagini parziali se l'immagine completa viene generata più rapidamente. 0
stream boolean Modificare l'immagine in modalità streaming. no false
quality imageQuality Qualità dell'immagine che verrà generata. No auto
response_format imagesResponseFormat Formato in cui vengono restituite le immagini generate. Questo parametro non è supportato per gpt-image-1i modelli di serie che restituiranno sempre immagini con codifica Base64.
Valori possibili: url, b64_json.
No url
size imageSize Dimensioni delle immagini generate. No auto
style imageStyle Stile delle immagini generate. Supportato solo per dall-e-3. No vivid
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. No

Responses

Codice di stato: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Codice di stato: impostazione predefinita

Descrizione: si è verificato un errore.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crea immagini in base a un prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Risposte: Codice di stato: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Generazioni di immagini - Modifica

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Modifica un'immagine da una didascalia di testo in una determinata distribuzione del modello gpt-image-1

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
image stringa o matrice Immagini da modificare. Deve essere un file di immagine supportato o una matrice di immagini. Ogni immagine deve essere un file png o jpg inferiore a 50 MB. Yes
input_fidelity string Controllare quanto sforzo il modello eserciterà per trovare le corrispondenze con lo stile e le caratteristiche, in particolare le caratteristiche facciali, delle immagini di input. Questo parametro è supportato solo per i modelli di serie gpt-image-1. Supporta high e low. no low.
mask string Immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indicano dove deve essere modificata l'immagine. Se sono disponibili più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, minore di 4 MB e avere le stesse dimensioni dell'immagine. No
n integer Numero di immagini da generare. Deve essere compreso tra 1 e 10. No 1
prompt string Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri. Yes
quality imageQuality Qualità dell'immagine che verrà generata. No auto
partial_images Numero di immagini parziali da generare. Questo parametro viene usato per le risposte di streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Se impostato su 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generato il numero completo di immagini parziali se l'immagine completa viene generata più rapidamente.
stream boolean Modificare l'immagine in modalità streaming. no false
response_format imagesResponseFormat Formato in cui vengono restituite le immagini generate. No url
size imageSize Dimensioni delle immagini generate. No auto
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. No

Responses

Codice di stato: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Codice di stato: impostazione predefinita

Descrizione: si è verificato un errore.

Content-Type Type Description
application/json dalleErrorResponse

Elenco - Assistenti

Note

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Restituisce un elenco di assistenti.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Restituisce un elenco di assistenti.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Crea - Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Creare un assistente con un modello e istruzioni.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string Yes
name string Nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
└─ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function.
No []
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Creare un assistente con un modello e istruzioni.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Get - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Recupera un assistente.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID dell'assistente da recuperare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Recupera un assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modifica - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica un assistente.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID dell'assistente da modificare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string No
name string Nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Esegue l'override dell'elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Esegue l'override dell'archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function.
No []
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifica un assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Elimina - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Eliminare un assistente.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID dell'assistente da eliminare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Elimina un assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Crea - Thread

Note

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Creare un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
messages array Elenco di messaggi con cui avviare il thread. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
tool_resources object Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No
└─ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Crea un thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Ottieni - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread da recuperare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Recupera un thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifica - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread da modificare. È possibile modificare solo l'oggetto metadata .
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
tool_resources object Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifica un thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Elimina - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Eliminare un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread da eliminare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Elimina un thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Elenco - Messaggi

Note

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Restituisce un elenco di messaggi per un determinato thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID dei thread a cui appartengono i messaggi.
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
run_id query No string Filtrare i messaggi in base all'ID di esecuzione che li ha generati.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Crea - Messaggio

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Creare un messaggio.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID dei thread per cui creare un messaggio.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
attachments array Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. No
content string Contenuto del messaggio. Yes
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
role string Ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.
- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione.
Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Creare un messaggio.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Ottieni - Messaggio

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recuperare un messaggio.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID dei thread a cui appartiene il messaggio.
message_id path Yes string ID del messaggio da recuperare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Recuperare un messaggio.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifica - Messaggio

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica un messaggio.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread a cui appartiene il messaggio.
message_id path Yes string ID del messaggio da modificare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modificare un messaggio.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Creazione - Thread ed esecuzione

Note

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Creare un thread ed eseguirlo in una richiesta.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
assistant_id string ID dell'assistente da usare per eseguire questa esecuzione. Yes
instructions string Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
max_prompt_tokens integer Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string ID dei modelli da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio.
No
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.
No None
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none significa che il modello non chiamerà alcun strumento e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Creare un thread ed eseguirlo in una richiesta.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Elenco - Esecuzioni

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Restituisce un elenco di esecuzioni appartenenti a un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread a cui appartiene l'esecuzione.
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Restituisce un elenco di esecuzioni appartenenti a un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Crea - Esegui

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Creare un'esecuzione.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread da eseguire.
include[] query No array Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. No
additional_messages array Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. No
assistant_id string ID dell'assistente da usare per eseguire questa esecuzione. Yes
instructions string Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
max_prompt_tokens integer Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none significa che il modello non chiamerà alcun strumento e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
tools array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Creare un'esecuzione.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Get - Esegui

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera un'esecuzione.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID dei thread eseguiti.
run_id path Yes string ID dell'esecuzione da recuperare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Ottiene un'esecuzione.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifica - Esegui

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica un'esecuzione.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID dei thread eseguiti.
run_id path Yes string ID dell'esecuzione da modificare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifica un'esecuzione.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Submit - Output degli strumenti da eseguire

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando un'esecuzione ha status: "requires_action" e required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate dello strumento dopo il completamento. Tutti gli output devono essere inviati in una singola richiesta.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID dei thread a cui appartiene questa esecuzione.
run_id path Yes string ID dell'esecuzione che richiede l'invio dell'output dello strumento.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
stream boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio.
No
tool_outputs array Elenco di strumenti per i quali vengono inviati gli output. Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Quando un'esecuzione ha status: "requires_action" e required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate dello strumento dopo il completamento. Tutti gli output devono essere inviati in una singola richiesta.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annulla - Esegui

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Annulla un'esecuzione che è in_progress.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread a cui appartiene questa esecuzione.
run_id path Yes string ID dell'esecuzione da annullare.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Annulla un'esecuzione che è in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Elenco - Passaggi di esecuzione

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Restituisce un elenco di passaggi di esecuzione appartenenti a un'esecuzione.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread a cui appartengono i passaggi di esecuzione ed esecuzione.
run_id path Yes string ID dell'esecuzione a cui appartengono i passaggi di esecuzione.
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
api-version query Yes string
include[] query No array Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Restituisce un elenco di passaggi di esecuzione appartenenti a un'esecuzione.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Get - Esegui passaggio

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera un passaggio di esecuzione.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID del thread a cui appartiene il passaggio di esecuzione ed esecuzione.
run_id path Yes string ID dell'esecuzione a cui appartiene il passaggio di esecuzione.
step_id path Yes string ID del passaggio di esecuzione da recuperare.
include[] query No array Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file.
api-version query Yes string

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Recupera un passaggio di esecuzione.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Elenco - Archivi vettoriali

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Restituisce un elenco di archivi vettoriali.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Restituisce un elenco di archivi vettoriali.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Crea - Archivio vettoriale

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Creare un archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
expires_after vectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
file_ids array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
name string Nome dell'archivio vettoriale. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Crea un archivio vettoriale.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Get - Archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera un archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale da recuperare.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Recupera un archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifica - Archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica un archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale da modificare.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
name string Nome dell'archivio vettoriale. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifica un archivio vettoriale.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Elimina - Archivio vettoriale

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Eliminare un archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale da eliminare.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Elimina un archivio vettoriale.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Elenco - File dell'archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Restituisce un elenco di file dell'archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartengono i file.
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
filter query No string
Valori possibili: in_progress, completed, failed, cancelled
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Restituisce un elenco di file dell'archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Crea - File archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale per il quale creare un file.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. No
file_id string ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Ottieni - File dell’archivio di vettori

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera un file di archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartiene il file.
file_id path Yes string ID del file da recuperare.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Recupera un file di archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Elimina - File archivio vettoriale

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Eliminare un file dell'archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartiene il file.
file_id path Yes string ID del file da eliminare.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Eliminare un file dell'archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Aggiornare gli attributi in un file dell'archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartiene il file.
file_id path Yes string ID del file da aggiornare.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.
Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Recuperare il contenuto del file dell'archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recuperare il contenuto analizzato di un file di archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale.
file_id path Yes string ID del file all'interno dell'archivio vettoriale.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Archivio vettoriale di ricerca

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Cercare in un archivio vettoriale blocchi pertinenti in base a un filtro di attributi di query e file.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale da cercare.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
filters ComparisonFilter o CompoundFilter Filtro da applicare in base agli attributi del file. No
max_num_results integer Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi. No 10
query stringa o matrice Stringa di query per una ricerca Yes
ranking_options object Opzioni di classificazione per la ricerca. No
└─ ranker enum
Valori possibili: auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No False

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Crea - Batch file archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Creare un batch di file di archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale per il quale creare un batch di file.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. No
file_ids array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Creare un batch di file di archivio vettoriale.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Risposte: Codice di stato: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Ottieni - Batch file archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera un batch di file dell'archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path Yes string ID del batch di file recuperato.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Recupera un batch di file dell'archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annulla - Batch file archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Annullare un batch di file dell'archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path Yes string ID del batch di file da annullare.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Annullare un batch di file dell'archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Elenco - File batch dell'archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Restituisce un elenco di file dell'archivio vettoriale in un batch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID dell'archivio vettoriale a cui appartengono i file.
batch_id path Yes string ID del batch di file a cui appartengono i file.
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
after query No string Cursore da usare nella paginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query No string Cursore da usare nella paginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
filter query No string
Valori possibili: in_progress, completed, failed, cancelled
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Restituisce un elenco di file dell'archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Crea - Sessione in tempo reale

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime. Può essere configurato con gli stessi parametri di sessione dell'evento session.update client. Risponde con un oggetto sessione, oltre a una client_secret chiave che contiene un token API temporaneo utilizzabile che può essere usato per autenticare i client del browser per l'API Realtime.

Request Body

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivare una sola volta. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite l'endpoint trascrizioni e deve essere considerata come guida per il contenuto audio di input anziché esattamente quello che il modello ha sentito. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
No
└─ language string Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
No
└─ model string Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, e .whisper-1
No
└─ prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
instructions string Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.

Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer o stringa Numero massimo di token di output per una singola risposta di assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf.
No
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
No
model string Nome della distribuzione utilizzata per questa sessione.
No
output_audio_format enum Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di output viene campionato a una velocità di 24 kHz.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
temperature number Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Per i modelli audio una temperatura di 0,8 è altamente consigliata per ottenere prestazioni ottimali.
No 0.8
tool_choice string Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione.
No auto
tools array Strumenti (funzioni) disponibili per il modello. No
turn_detection object Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.
VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
No
└─ create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente.
No
└─ threshold number Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Codice di stato: 200

Descrizione: sessione creata correttamente.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Crea - Trascrizione sessione in tempo reale

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime specificamente per le trascrizioni in tempo reale. Può essere configurato con gli stessi parametri di sessione dell'evento transcription_session.update client. Risponde con un oggetto sessione, oltre a una client_secret chiave che contiene un token API temporaneo utilizzabile che può essere usato per autenticare i client del browser per l'API Realtime.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio di input. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
No
└─ language string Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
No
└─ model enum Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
No
turn_detection object Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.
VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
No
└─ create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente.
No
└─ threshold number Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
No

Responses

Codice di stato: 200

Descrizione: sessione creata correttamente.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Crea una risposta del modello.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array No
input stringa o matrice Model inputs Yes
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
No
max_output_tokens integer Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
No
parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo.
No True
previous_response_id string ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. Altre informazioni sullo stato della conversazione.
No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento. No
store boolean Indica se archiviare la risposta del modello generata per il recupero successivo tramite API.
No True
stream boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server.
Per altre informazioni, vedere la sezione Streaming di seguito.
No False
text object Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more:
- Input e output di testo
- Output strutturati
No
└─ format TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito.

Il formato predefinito non include { "type": "text" } opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
No
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
No
tools array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire il modello sono:

- Strumenti predefiniti: strumenti forniti da OpenAI che estendono
model's capabilities
No
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

API Risposte - Elementi di input

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera una risposta del modello con l'ID specificato.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
response_id path Yes string ID della risposta da recuperare.
include query No array Campi aggiuntivi da includere nella risposta. Per altre informazioni, vedere il include parametro per la creazione della risposta precedente.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json response

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Elimina una risposta del modello con l'ID specificato.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
response_id path Yes string ID della risposta da eliminare.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Codice di stato: 404

Descrizione: Non trovato

Content-Type Type Description
application/json error

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

API Risposte - Elenco di elementi di risposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Restituisce un elenco di elementi di input per una determinata risposta.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{your-resource-name}.openai.azure.com
response_id path Yes string ID della risposta per cui recuperare gli elementi di input.
limit query No integer Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordine in cui restituire gli elementi di input. Il valore predefinito è asc.
- asc: restituisce gli elementi di input in ordine crescente.
- desc: restituisce gli elementi di input in ordine decrescente.
after query No string ID elemento dopo l'elenco, utilizzato nella paginazione.
before query No string ID elemento da elencare prima, utilizzato nella paginazione.

Request Header

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornire la chiave API OpenAI di Azure qui

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Errore interno con dettagli aggiuntivi. No
param string No
type string No

innerError

Errore interno con dettagli aggiuntivi.

Name Type Description Required Default
code innerErrorCode Codici di errore per l'oggetto errore interno. No
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. No

innerErrorCode

Codici di errore per l'oggetto errore interno.

Property Value
Description Codici di errore per l'oggetto errore interno.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Errore interno con dettagli aggiuntivi. No
param string No
type string No

dalleInnerError

Errore interno con dettagli aggiuntivi.

Name Type Description Required Default
code innerErrorCode Codici di errore per l'oggetto errore interno. No
content_filter_results dalleFilterResults Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. No
revised_prompt string Richiesta usata per generare l'immagine, se è presente una revisione al prompt. No

contentFilterCompletionTextSpan

Descrive un intervallo all'interno del testo di completamento generato. Offset 0 è il primo punto di codice UTF32 del testo di completamento.

Name Type Description Required Default
completion_end_offset integer Offset del primo punto di codice UTF32 escluso dall'intervallo. Questo campo è sempre uguale a completion_start_offset per intervalli vuoti. Questo campo è sempre più grande di completion_start_offset per intervalli non vuoti. Yes
completion_start_offset integer Offset del punto di codice UTF32 che inizia l'intervallo. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└─ URL string No
└─ license string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informazioni sui risultati del filtro del contenuto.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se sono state rilevate e se sono state filtrate o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Risultati del filtro del contenuto per una singola richiesta nella richiesta.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. No
prompt_index integer No

promptFilterResults

Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi.

Nessuna proprietà definita per questo componente.

dalleContentFilterResults

Informazioni sui risultati del filtro del contenuto.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Risultati del filtro del contenuto con un dettaglio degli ID filtro contenuto per i segmenti filtrati. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim. No 0
logit_bias object Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificati dall'ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. No
max_completion_tokens integer Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. No
max_tokens integer Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Non è compatibile con i modelli di serie o1. No 4096
metadata object Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. No
presence_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. No 0
stop stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token. No
store boolean Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di modellazione del modello. No
stream boolean Se impostato, vengono inviati differenziali parziali dei messaggi, ad esempio in ChatGPT. I token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. No False
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.
In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente ad Azure OpenAI di monitorare e rilevare gli abusi. No

createCompletionRequest

Name Type Description Required Default
best_of integer Genera best_of completamenti sul lato server e restituisce il "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.

Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire. best_of deve essere maggiore di n.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop.
No 1
echo boolean Ripetere la richiesta oltre al completamento
No False
frequency_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim.
No 0
logit_bias object Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.

Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del <token |endoftext|> .
No None
logprobs integer Includere le probabilità di log nei logprobs token di output più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei 5 token più probabili. L'API restituirà sempre l'oggetto logprob del token campionato, quindi potrebbe essere presente fino a un massimo di logprobs+1 elementi nella risposta.

Il valore massimo per logprobs è 5.
No None
max_tokens integer Numero massimo di token che è possibile generare nel completamento.

Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello.
No 16
n integer Numero di completamenti da generare per ogni richiesta.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Usare attentamente e assicurarsi di disporre di impostazioni ragionevoli per max_tokens e stop.
No 1
presence_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
No 0
prompt stringa o matrice Prompt/i per cui generare completamenti, codificati come stringa, matrice di stringhe, matrice di token o matrice di matrici di token.

Si noti che <|endoftext|> è il separatore di documento visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello verrà generato come se dall'inizio di un nuovo documento.
Yes
seed integer Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.

Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
stop stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.
No
stream boolean Indica se eseguire il flusso di avanzamento parziale. Se impostato, i token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Codice Python di esempio.
No False
suffix string Suffisso che segue un completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No None
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.

In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso.
No

createCompletionResponse

Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).

Name Type Description Required Default
choices array Elenco delle scelte di completamento del modello generato per il prompt di input. Yes
created integer Timestamp Unix (in secondi) di quando è stato creato il completamento. Yes
id string Identificatore univoco per il completamento. Yes
model string Modello utilizzato per il completamento. Yes
object enum Tipo di oggetto, che è sempre "text_completion"
Valori possibili: text_completion
Yes
prompt_filter_results promptFilterResults Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi. No
system_fingerprint string Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
No
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. No

createChatCompletionRequest

Name Type Description Required Default
audio object Parametri per l'output audio. Obbligatorio quando viene richiesto l'output audio con modalities: ["audio"]. No
└─ format enum Specifica il formato audio di output. Deve essere uno di wav, mp3, flacopus, o pcm16.

Valori possibili: wav, mp3flac, , opus,pcm16
No
└─ voice enum Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, novae shimmer.

Valori possibili: alloy, echofable, onyx, , novashimmer
No
data_sources array Voci di configurazione per le estensioni della chat OpenAI di Azure che le usano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
No
frequency_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a questo momento, riducendo la probabilità che il modello ripeta la stessa riga verbatim.
No 0
function_call string o chatCompletionFunctionCallOption Deprecato a favore di tool_choice.

Controlla la funzione (se presente) chiamata dal modello.
none indica che il modello non chiamerà una funzione e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.

none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni.
No
functions array Deprecato a favore di tools.

Un elenco di funzioni per cui il modello può generare input JSON.
No
logit_bias object Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificati dal relativo ID token nel tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
No None
logprobs boolean Indica se restituire o meno le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. No False
max_completion_tokens integer Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. No
max_tokens integer Numero massimo di token che possono essere generati nel completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello.
No
messages array Elenco di messaggi che comprendono la conversazione finora. Codice Python di esempio. Yes
metadata object Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. No
modalities ChatCompletionModalities Tipi di output che si desidera che il modello generi per questa richiesta.
La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:

["text"]

Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]
No
n integer Quante opzioni di completamento della chat generare per ogni messaggio di input. Si noti che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. No 1
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
prediction PredictionContent Configurazione per un output stimato, che può migliorare notevolmente i tempi di risposta quando in anticipo sono note parti elevate della risposta del modello. Questo è più comune quando si rigenera un file con solo modifiche minime alla maggior parte del contenuto. No
presence_penalty number Numero compreso tra -2,0 e 2,0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
No 0
reasoning_effort enum solo modelli o1

Vincola lo sforzo sul ragionamento per i modelli di ragionamento.

I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.
Valori possibili: low, medium, high
No
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che garantiscono che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
seed integer Questa funzionalità è in versione beta.
Se specificato, il sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed parametri e restituisca lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
stop stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token.
No
store boolean Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di modellazione del modello. No
stream boolean Se impostato, vengono inviati differenziali parziali dei messaggi, ad esempio in ChatGPT. I token vengono inviati come eventi inviati dal server solo dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Codice Python di esempio.
No False
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.
No None
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.

In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
tool_choice chatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita se sono presenti strumenti. No
tools array Un elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni.
No
top_logprobs integer Numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. No
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso.
No
user_security_context userSecurityContext Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione di intelligenza artificiale stessa e l'utente finale che interagisce con l'applicazione di intelligenza artificiale. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. No

userSecurityContext

Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione di intelligenza artificiale stessa e l'utente finale che interagisce con l'applicazione di intelligenza artificiale. Questi campi aiutano i team delle operazioni di sicurezza a analizzare e mitigare gli eventi imprevisti di sicurezza fornendo un approccio completo alla protezione delle applicazioni di intelligenza artificiale. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud.

Name Type Description Required Default
application_name string Nome dell'applicazione. Le informazioni personali riservate non devono essere incluse in questo campo. No
end_user_id string Questo identificatore è l'ID utente microsoft Entra (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di intelligenza artificiale generativa. Le informazioni personali riservate non devono essere incluse in questo campo. No
end_user_tenant_id string ID tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di intelligenza artificiale generativa è multi-tenant. No
source_ip string Acquisisce l'indirizzo IP del client originale, accettando sia i formati IPv4 che IPv6. No

chatCompletionFunctions

Name Type Description Required Default
description string Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. No
name string Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. Yes
parameters FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione parameters definisce una funzione con un elenco di parametri vuoto.
No

chatCompletionFunctionCallOption

Specificando una funzione specifica tramite {"name": "my_function"} forza il modello a chiamare tale funzione.

Name Type Description Required Default
name string Nome della funzione da chiamare. Yes

chatCompletionFunctionParameters

I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida/ per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

Nessuna proprietà definita per questo componente.

chatCompletionRequestMessage

Questo componente può essere uno dei seguenti:

ChatCompletionRequestDeveloperMessage

Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, developer i messaggi sostituiscono i messaggi precedenti system .

Name Type Description Required Default
content stringa o matrice Contenuto del messaggio dello sviluppatore. Yes
name string Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
role enum Ruolo dell'autore dei messaggi, in questo caso developer.
Valori possibili: developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content stringa o matrice Contenuto del messaggio di sistema. Yes
name string Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
role enum Ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content stringa o matrice Contenuto del messaggio utente.
Yes
name string Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
role enum Ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content stringa o matrice Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls non sia specificato o function_call .
No
function_call object Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. No
└─ arguments string Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. No
└─ name string Nome della funzione da chiamare. No
name string Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti dello stesso ruolo. No
refusal string Messaggio di rifiuto dell'assistente. No
role enum Ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistant
Yes
tool_calls chatCompletionMessageToolCalls Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content stringa o matrice Contenuto del messaggio dello strumento. Yes
role enum Ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: tool
Yes
tool_call_id string Chiamare lo strumento a cui risponde questo messaggio. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Contenuto del messaggio della funzione. Yes
name string Nome della funzione da chiamare. Yes
role enum Ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestSystemMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestUserMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestAssistantMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestToolMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Contenuto di testo. Yes
type enum Tipo della parte di contenuto.
Valori possibili: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Dati audio con codifica Base64. No
└─ format enum Formato dei dati audio codificati. Attualmente supporta "wav" e "mp3".

Valori possibili: wav, mp3
No
type enum Tipo della parte di contenuto. Sempre input_audio.
Valori possibili: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione.
Valori possibili: auto, low, high
No
└─ url string URL dell'immagine o dei dati dell'immagine con codifica base64. No
type enum Tipo della parte di contenuto.
Valori possibili: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Messaggio di rifiuto generato dal modello. Yes
type enum Tipo della parte di contenuto.
Valori possibili: refusal
Yes

azureChatExtensionConfiguration

Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

###Discriminator per azureChatExtensionConfiguration

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureChatExtensionType

Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Property Value
Description Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Rappresentazione specifica delle opzioni configurabili per Ricerca di Azure quando viene usata come estensione di chat OpenAI di Azure.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Parametri per Ricerca di Azure quando vengono usati come estensione di chat OpenAI di Azure. No
type azureChatExtensionType Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Parametri per Ricerca di Azure quando vengono usati come estensione di chat OpenAI di Azure.

Name Type Description Required Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. No False
authentication onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataIntegratedVectorizationSource No
endpoint string Percorso endpoint assoluto per la risorsa di Ricerca di Azure da usare. Yes
fields_mapping azureSearchIndexFieldMappingOptions Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Ricerca di Azure configurata. No
filter string Search filter. No
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. No
include_contexts array Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Nome dell'indice da usare come disponibile nella risorsa ricerca di Azure a cui si fa riferimento. Yes
max_search_queries integer Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
query_type azureSearchQueryType Tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure. No
semantic_configuration string Configurazione semantica aggiuntiva per la query. No
strictness integer La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. No
top_n_documents integer Numero massimo di documenti configurato per la funzionalità per la query configurata. No

azureSearchIndexFieldMappingOptions

Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Ricerca di Azure configurata.

Name Type Description Required Default
content_fields array Nomi dei campi di indice che devono essere considerati come contenuto. No
content_fields_separator string Modello separatore che i campi di contenuto devono usare. No
filepath_field string Nome del campo di indice da utilizzare come percorso file. No
image_vector_fields array Nomi di campi che rappresentano i dati del vettore di immagine. No
title_field string Nome del campo di indice da utilizzare come titolo. No
url_field string Nome del campo di indice da usare come URL. No
vector_fields array Nomi dei campi che rappresentano i dati vettoriali. No

azureSearchQueryType

Tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure.

Property Value
Description Tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando viene usata come estensione di chat OpenAI di Azure.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Parametri da usare durante la configurazione delle estensioni di Azure OpenAI nelle chat di dati quando si usa Azure Cosmos DB per MongoDB vCore. No
type azureChatExtensionType Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Parametri da usare durante la configurazione delle estensioni di Azure OpenAI nelle chat di dati quando si usa Azure Cosmos DB per MongoDB vCore.

Name Type Description Required Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. No False
authentication onYourDataConnectionStringAuthenticationOptions Opzioni di autenticazione per Azure OpenAI sui dati quando si usa una stringa di connessione. Yes
container_name string Nome del contenitore di risorse di Azure Cosmos DB. Yes
database_name string Nome del database vCore mongoDB da usare con Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Azure Cosmos DB configurata. Yes
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. No
include_contexts array Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Nome dell'indice vCore di MongoDB da usare con Azure Cosmos DB. Yes
max_search_queries integer Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
strictness integer La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. No
top_n_documents integer Numero massimo di documenti configurato per la funzionalità per la query configurata. No

azureCosmosDBFieldMappingOptions

Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa di Azure Cosmos DB configurata.

Name Type Description Required Default
content_fields array Nomi dei campi di indice che devono essere considerati come contenuto. Yes
content_fields_separator string Modello separatore che i campi di contenuto devono usare. No
filepath_field string Nome del campo di indice da utilizzare come percorso file. No
title_field string Nome del campo di indice da utilizzare come titolo. No
url_field string Nome del campo di indice da usare come URL. No
vector_fields array Nomi dei campi che rappresentano i dati vettoriali. Yes

elasticsearchChatExtensionConfiguration

Rappresentazione specifica delle opzioni configurabili per Elasticsearch quando viene usata come estensione di chat OpenAI di Azure.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Parametri da usare quando si configura Elasticsearch® come estensione di chat OpenAI di Azure. No
type azureChatExtensionType Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Parametri da usare quando si configura Elasticsearch® come estensione di chat OpenAI di Azure.

Name Type Description Required Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. No False
authentication onYourDataKeyAndKeyIdAuthenticationOptions o onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataModelIdVectorizationSource No
endpoint string Endpoint di Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Elasticsearch® configurata. No
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. No
include_contexts array Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Nome dell'indice di Elasticsearch®. Yes
max_search_queries integer Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
query_type elasticsearchQueryType Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure. No
strictness integer La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. No
top_n_documents integer Numero massimo di documenti configurato per la funzionalità per la query configurata. No

elasticsearchIndexFieldMappingOptions

Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Elasticsearch® configurata.

Name Type Description Required Default
content_fields array Nomi dei campi di indice che devono essere considerati come contenuto. No
content_fields_separator string Modello separatore che i campi di contenuto devono usare. No
filepath_field string Nome del campo di indice da utilizzare come percorso file. No
title_field string Nome del campo di indice da utilizzare come titolo. No
url_field string Nome del campo di indice da usare come URL. No
vector_fields array Nomi dei campi che rappresentano i dati vettoriali. No

elasticsearchQueryType

Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure.

Property Value
Description Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat OpenAI di Azure.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Rappresentazione specifica delle opzioni configurabili per Mongo DB quando viene usata come estensione di chat OpenAI di Azure.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Parametri da usare quando si configura l'estensione OpenAI di Azure nelle chat di dati quando si usa Mongo DB. No
type azureChatExtensionType Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Parametri da usare quando si configura l'estensione OpenAI di Azure nelle chat di dati quando si usa Mongo DB.

Name Type Description Required Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. No False
app_name string Nome dell'applicazione Mongo DB. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI sui dati quando si usano un nome utente e una password. Yes
collection_name string Nome della raccolta Mongo DB. Yes
database_name string Nome del database Mongo DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource Yes
endpoint string Nome dell'endpoint del cluster Mongo DB. Yes
fields_mapping mongoDBFieldMappingOptions Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa mongo DB configurata. Yes
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. No
include_contexts array Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Nome dell'indice mongo DB. Yes
max_search_queries integer Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
strictness integer La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. No
top_n_documents integer Numero massimo di documenti configurato per la funzionalità per la query configurata. No

mongoDBFieldMappingOptions

Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa mongo DB configurata.

Name Type Description Required Default
content_fields array Nomi dei campi di indice che devono essere considerati come contenuto. Yes
content_fields_separator string Modello separatore che i campi di contenuto devono usare. No
filepath_field string Nome del campo di indice da utilizzare come percorso file. No
title_field string Nome del campo di indice da utilizzare come titolo. No
url_field string Nome del campo di indice da usare come URL. No
vector_fields array Nomi dei campi che rappresentano i dati vettoriali. Yes

pineconeChatExtensionConfiguration

Rappresentazione specifica delle opzioni configurabili per Pinecone quando viene usata come estensione di chat OpenAI di Azure.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Parametri per la configurazione delle estensioni di chat Di Azure OpenAI Pinecone. No
type azureChatExtensionType Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI di Azure. Verrà usato da una richiesta di completamento della chat che deve usare le estensioni della chat OpenAI di Azure per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

pineconeChatExtensionParameters

Parametri per la configurazione delle estensioni di chat Di Azure OpenAI Pinecone.

Name Type Description Required Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. No False
authentication onYourDataApiKeyAuthenticationOptions Opzioni di autenticazione per Azure OpenAI nei dati quando si usa una chiave API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, che si basa su un nome di distribuzione del modello di incorporamento interno nella stessa risorsa OpenAI di Azure. Yes
environment string Nome dell'ambiente di Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Pinecone configurata. Yes
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. No
include_contexts array Proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Nome dell'indice di database Pinecone. Yes
max_search_queries integer Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
strictness integer La rigidità configurata del filtro per pertinenza della ricerca. Maggiore è la rigidità, maggiore è la precisione ma il richiamo inferiore della risposta. No
top_n_documents integer Numero massimo di documenti configurato per la funzionalità per la query configurata. No

pineconeFieldMappingOptions

Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Pinecone configurata.

Name Type Description Required Default
content_fields array Nomi dei campi di indice che devono essere considerati come contenuto. Yes
content_fields_separator string Modello separatore che i campi di contenuto devono usare. No
filepath_field string Nome del campo di indice da utilizzare come percorso file. No
title_field string Nome del campo di indice da utilizzare come titolo. No
url_field string Nome del campo di indice da usare come URL. No

onYourDataAuthenticationOptions

Opzioni di autenticazione per Azure OpenAI nei dati.

Discriminante per onYourDataAuthenticationOptions

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataContextProperty

Proprietà di contesto.

Property Value
Description Proprietà di contesto.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Tipi di autenticazione supportati con Azure OpenAI nei dati.

Property Value
Description Tipi di autenticazione supportati con Azure OpenAI nei dati.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Opzioni di autenticazione per Azure OpenAI nei dati quando si usa una chiave API.

Name Type Description Required Default
key string Chiave API da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataConnectionStringAuthenticationOptions

Opzioni di autenticazione per Azure OpenAI sui dati quando si usa una stringa di connessione.

Name Type Description Required Default
connection_string string Stringa di connessione da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui dati quando si usano una coppia di chiavi e ID chiave Elasticsearch.

Name Type Description Required Default
key string Chiave elasticsearch da usare per l'autenticazione. No
key_id string ID chiave elasticsearch da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui dati quando si usa una chiave API con codifica Elasticsearch.

Name Type Description Required Default
encoded_api_key string Chiave API con codifica Elasticsearch da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataAccessTokenAuthenticationOptions

Opzioni di autenticazione per Azure OpenAI sui dati quando si usa il token di accesso.

Name Type Description Required Default
access_token string Token di accesso da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI nei dati quando si usa un'identità gestita assegnata dal sistema.

Name Type Description Required Default
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Opzioni di autenticazione per Azure OpenAI nei dati quando si usa un'identità gestita assegnata dall'utente.

Name Type Description Required Default
managed_identity_resource_id string ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui dati quando si usano un nome utente e una password.

Name Type Description Required Default
password string The password. da usare per l'autenticazione. No
type onYourDataAuthenticationType Tipi di autenticazione supportati con Azure OpenAI nei dati. Yes
username string Nome utente da usare per l'autenticazione. No

onYourDataVectorizationSource

Rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI sui dati con ricerca vettoriale.

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. Yes

onYourDataVectorizationSourceType

Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale.

Property Value
Description Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, che si basa su una chiamata di endpoint OpenAI di Azure pubblica per gli incorporamenti.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions No
dimensions integer Numero di dimensioni che gli incorporamenti devono avere. Supportato solo nei text-embedding-3 modelli e versioni successive. No
endpoint string Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti. Deve essere nel formato .https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings Il parametro di query api-version non è consentito. No
type onYourDataVectorizationSourceType Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. Yes

onYourDataDeploymentNameVectorizationSource

I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome di distribuzione del modello di incorporamento interno nella stessa risorsa OpenAI di Azure.

Name Type Description Required Default
deployment_name string Specifica il nome della distribuzione del modello da usare per la vettorializzazione. La distribuzione di questo modello deve trovarsi nella stessa risorsa OpenAI di Azure, ma nei dati userà questa distribuzione del modello tramite una chiamata interna anziché una pubblica, che consente la ricerca vettoriale anche nelle reti private. No
dimensions integer Numero di dimensioni che gli incorporamenti devono avere. Supportato solo nei text-embedding-3 modelli e versioni successive. No
type onYourDataVectorizationSourceType Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. Yes

onYourDataIntegratedVectorizationSource

Rappresenta il vettore integrato definito all'interno della risorsa di ricerca.

Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. Yes

onYourDataModelIdVectorizationSource

I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un ID modello di servizio di ricerca. Attualmente supportato solo da Elasticsearch®.

Name Type Description Required Default
model_id string Specifica l'ID modello da utilizzare per la vettorializzazione. Questo ID modello deve essere definito nel servizio di ricerca. No
type onYourDataVectorizationSourceType Rappresenta le origini disponibili di Azure OpenAI nei dati che è possibile usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. Yes

azureChatExtensionsMessageContext

Rappresentazione delle informazioni di contesto aggiuntive disponibili quando le estensioni della chat OpenAI di Azure sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI di Azure configurata per l'uso di un'estensione corrispondente.

Name Type Description Required Default
all_retrieved_documents array Tutti i documenti recuperati. No
citations array Risultato del recupero dell'origine dati, utilizzato per generare il messaggio di assistente nella risposta. No
intent string Finalità rilevata dalla cronologia delle chat, usata per passare al turno successivo per trasferire il contesto. No

citation

informazioni sulla citazione per un messaggio di risposta di completamento della chat.

Name Type Description Required Default
chunk_id string ID blocco della citazione. No
content string Contenuto della citazione. Yes
filepath string Percorso del file della citazione. No
rerank_score number Punteggio di rerank del documento recuperato. No
title string Titolo della citazione. No
url string URL della citazione. No

retrievedDocument

Documento recuperato.

Name Type Description Required Default
chunk_id string ID blocco della citazione. No
content string Contenuto della citazione. Yes
data_source_index integer Indice dell'origine dati. No
filepath string Percorso del file della citazione. No
filter_reason filterReason Motivo del filtro del documento recuperato. No
original_search_score number Punteggio di ricerca originale del documento recuperato. No
rerank_score number Punteggio di rerank del documento recuperato. No
search_queries array Query di ricerca utilizzate per recuperare il documento. No
title string Titolo della citazione. No
url string URL della citazione. No

filterReason

Motivo del filtro del documento recuperato.

Property Value
Description Motivo del filtro del documento recuperato.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object Funzione chiamata dal modello. Yes
└─ arguments string Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. No
└─ name string Nome della funzione da chiamare. No
id string ID della chiamata allo strumento. Yes
type toolCallType Tipo di chiamata allo strumento, in questo caso function. Yes

toolCallType

Tipo di chiamata allo strumento, in questo caso function.

Property Value
Description Tipo di chiamata allo strumento, in questo caso function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Contenuto del messaggio. No
tool_call_id string Chiamare lo strumento a cui risponde questo messaggio. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Contenuto del messaggio. No
name string Contenuto del messaggio. No
role enum Ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function
No

createChatCompletionResponse

Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.

Name Type Description Required Default
choices array Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1. Yes
created integer Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Yes
id string Identificatore univoco per il completamento della chat. Yes
model string Modello usato per il completamento della chat. Yes
object enum Tipo di oggetto, che è sempre chat.completion.
Valori possibili: chat.completion
Yes
prompt_filter_results promptFilterResults Risultati del filtro del contenuto per zero o più richieste nella richiesta. In una richiesta di streaming, i risultati per richieste diverse possono arrivare in momenti diversi o in ordini diversi. No
system_fingerprint string Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
No
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. No

createChatCompletionStreamResponse

Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input specificato.

Name Type Description Required Default
choices array Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1.
Yes
created integer Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp. Yes
id string Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID. Yes
model string Modello per generare il completamento. Yes
object enum Tipo di oggetto, che è sempre chat.completion.chunk.
Valori possibili: chat.completion.chunk
Yes
system_fingerprint string Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.
Può essere usato insieme al seed parametro di richiesta per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
No

chatCompletionStreamResponseDelta

Delta di completamento della chat generato dalle risposte del modello in streaming.

Name Type Description Required Default
content string Contenuto del messaggio di blocco. No
function_call object Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. No
└─ arguments string Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. No
└─ name string Nome della funzione da chiamare. No
refusal string Messaggio di rifiuto generato dal modello. No
role enum Ruolo dell'autore del messaggio.
Valori possibili: system, user, assistant, tool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. No
└─ name string Nome della funzione da chiamare. No
id string ID della chiamata allo strumento. No
index integer Yes
type enum Tipo dello strumento. Attualmente è supportato solo function .
Valori possibili: function
No

chatCompletionStreamOptions

Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.

Name Type Description Required Default
include_usage boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE] messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il choices campo sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null.
No

chatCompletionChoiceLogProbs

Registrare le informazioni sulla probabilità per la scelta.

Name Type Description Required Default
content array Elenco di token di contenuto del messaggio con informazioni sulla probabilità di log. Yes
refusal array Elenco di token di rifiuto dei messaggi con informazioni di probabilità di log. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni di byte devono essere combinati per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token. Yes
logprob number Probabilità del log di questo token. Yes
token string The token. Yes
top_logprobs array Elenco dei token più probabili e della probabilità di log, in questa posizione del token. In rari casi, può essere presente un numero inferiore al numero di richieste restituite top_logprobs . Yes

chatCompletionResponseMessage

Messaggio di completamento della chat generato dal modello.

Name Type Description Required Default
audio object Se viene richiesta la modalità di output audio, questo oggetto contiene dati sulla risposta audio del modello. No
└─ data string Byte audio con codifica Base64 generati dal modello, nel formato specificato nella richiesta.
No
└─ expires_at integer Timestamp Unix (in secondi) per quando questa risposta audio non sarà più accessibile nel server per l'uso nelle conversazioni a più turni.
No
└─ id string Identificatore univoco per questa risposta audio. No
└─ transcript string Trascrizione dell'audio generato dal modello. No
content string Contenuto del messaggio. Yes
context azureChatExtensionsMessageContext Rappresentazione delle informazioni di contesto aggiuntive disponibili quando le estensioni della chat OpenAI di Azure sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI di Azure configurata per l'uso di un'estensione corrispondente. No
function_call chatCompletionFunctionCall Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello. No
refusal string Messaggio di rifiuto generato dal modello. Yes
role chatCompletionResponseMessageRole Ruolo dell'autore del messaggio di risposta. Yes
tool_calls array Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione. No

chatCompletionResponseMessageRole

Ruolo dell'autore del messaggio di risposta.

Property Value
Description Ruolo dell'autore del messaggio di risposta.
Type string
Values assistant

chatCompletionToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita se sono presenti strumenti.

Questo componente può essere uno dei seguenti:

chatCompletionNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.

Name Type Description Required Default
function object Yes
└─ name string Nome della funzione da chiamare. No
type enum Tipo dello strumento. Attualmente è supportato solo function .
Valori possibili: function
Yes

ParallelToolCalls

Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.

Nessuna proprietà definita per questo componente.

PredictionContent

Contenuto di output stimato statico, ad esempio il contenuto di un file di testo che viene rigenerato.

Name Type Description Required Default
content stringa o matrice Contenuto che deve essere confrontato durante la generazione di una risposta del modello. Se i token generati corrispondono a questo contenuto, l'intera risposta del modello può essere restituita molto più rapidamente. Yes
type enum Tipo di contenuto previsto da fornire. Questo tipo è attualmente sempre content.
Valori possibili: content
Yes

chatCompletionMessageToolCalls

Lo strumento chiama generato dal modello, ad esempio le chiamate di funzione.

Nessuna proprietà definita per questo componente.

ChatCompletionModalities

Tipi di output che si desidera che il modello generi per questa richiesta. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:

["text"]

Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]

Nessuna proprietà definita per questo componente.

chatCompletionFunctionCall

Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generato dal modello.

Name Type Description Required Default
arguments string Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Si noti che il modello non genera sempre codice JSON valido e può allucinare i parametri non definiti dallo schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. Yes
name string Nome della funzione da chiamare. Yes

completionUsage

Statistiche di utilizzo per la richiesta di completamento.

Name Type Description Required Default
completion_tokens integer Numero di token nel completamento generato. Yes
completion_tokens_details object Suddivisione dei token usati in un completamento. No
└─ accepted_prediction_tokens integer Quando si usano output stimati, il numero di token nella stima visualizzata nel completamento. No
└─ audio_tokens integer Token di input audio generati dal modello. No
└─ reasoning_tokens integer Token generati dal modello per il ragionamento. No
└─ rejected_prediction_tokens integer Quando si usano output stimati, il numero di token nella stima che non sono stati visualizzati nel completamento. Tuttavia, come i token di ragionamento, questi token vengono ancora conteggiati nei token di completamento totali ai fini della fatturazione, dell'output e dei limiti della finestra di contesto. No
prompt_tokens integer Numero di token nel prompt. Yes
prompt_tokens_details object Dettagli dei token di richiesta. No
└─ audio_tokens integer Token di input audio presenti nel prompt. No
└─ cached_tokens integer Numero di token di richiesta memorizzati nella cache. No
total_tokens integer Numero totale di token usati nella richiesta (richiesta + completamento). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Tipo dello strumento. Attualmente è supportato solo function .
Valori possibili: function
Yes

FunctionParameters

I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione parameters definisce una funzione con un elenco di parametri vuoto.

Nessuna proprietà definita per questo componente.

FunctionObject

Name Type Description Required Default
description string Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. No
name string Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. Yes
parameters FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione parameters definisce una funzione con un elenco di parametri vuoto.
No
strict boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel parameters campo . Solo un subset di schema JSON è supportato quando strict è true. No False

ResponseFormatText

Name Type Description Required Default
type enum Tipo di formato di risposta definito: text
Valori possibili: text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Tipo di formato di risposta definito: json_object
Valori possibili: json_object
Yes

ResponseFormatJsonSchemaSchema

Schema per il formato di risposta, descritto come oggetto Schema JSON.

Nessuna proprietà definita per questo componente.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. No
└─ name string Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. No
└─ schema ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON. No
└─ strict boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel schema campo. Solo un subset di schema JSON è supportato quando strict è true. No False
type enum Tipo di formato di risposta definito: json_schema
Valori possibili: json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string File audio da tradurre. Yes
prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. No 0

audioResponse

Risposta di traduzione o trascrizione quando response_format era json

Name Type Description Required Default
text string Testo tradotto o trascritto. Yes

audioVerboseResponse

Risposta di traduzione o trascrizione quando response_format è stato verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Tipo di attività audio. No
text string Testo tradotto o trascritto. Yes
words array No

audioResponseFormat

Definisce il formato dell'output.

Property Value
Description Definisce il formato dell'output.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Oggetto file audio da trascrivere. Yes
language string Lingua dell'audio di input. Fornire il linguaggio di input nel formato ISO-639-1 migliora l'accuratezza e la latenza. No
prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number Temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. No 0
timestamp_granularities[] array Granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato verbose_json per usare le granularità del timestamp. Sono supportate entrambe o entrambe le opzioni seguenti: wordo segment. Nota: non esiste una latenza aggiuntiva per i timestamp dei segmenti, ma la generazione di timestamp delle parole comporta una latenza aggiuntiva. No ['segment']

audioSegment

Segmento di trascrizione o traduzione.

Name Type Description Required Default
avg_logprob number Probabilità media del log. No
compression_ratio number Compression ratio. No
end number Offset di fine segmento. No
id integer Segment identifier. No
no_speech_prob number Probabilità di "nessun parlato". No
seek number Offset del segmento. No
start number Offset iniziale segmento. No
temperature number Temperature. No
text string Segment text. No
tokens array Token del testo. No

audioWord

Trascrizione o parola di traduzione.

Name Type Description Required Default
end number Offset di fine parola. No
start number Offset iniziale parola. No
word string Word No

createSpeechRequest

Speech request.

Name Type Description Required Default
input string Testo per cui sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. Yes
response_format enum Formato in cui sintetizzare l'audio.
Valori possibili: mp3, opusaac, flac, , wavpcm
No
speed number Velocità dell'audio sintetizzato. Selezionare un valore da 0.25 a 4.0. 1.0 è l'impostazione predefinita. No 1.0
voice enum Voce da usare per la sintesi vocale.
Valori possibili: alloy, echofable, onyx, , novashimmer
Yes

imageQuality

Qualità dell'immagine che verrà generata.

Property Value
Description Qualità dell'immagine che verrà generata.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Formato in cui vengono restituite le immagini generate.

Property Value
Description Formato in cui vengono restituite le immagini generate.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie.

Property Value
Description Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1.
Type string
Default png
Values png
jpeg

imageSize

Dimensioni delle immagini generate.

Property Value
Description Dimensioni delle immagini generate.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Stile delle immagini generate. Supportato solo per dall-e-3.

Property Value
Description Stile delle immagini generate. Supportato solo per dall-e-3.
Type string
Default vivid
Values vivid
natural

imageBackground

Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1.

Property Value
Description Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. No auto
n integer Numero di immagini da generare. Per dall-e-3, è supportato solo n=1. No 1
output_compression integer Livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1 con il formato di output jpeg. No 100
output_format imagesOutputFormat Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. No png
prompt string Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri per i modelli di serie gpt-image-1 e 4000 caratteri per dall-e-3 Yes
quality imageQuality Qualità dell'immagine che verrà generata. No auto
response_format imagesResponseFormat Formato in cui vengono restituite le immagini generate. Supportato solo per dall-e-3. No url
size imageSize Dimensioni delle immagini generate. No auto
style imageStyle Stile delle immagini generate. Supportato solo per dall-e-3. No vivid
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. No

imageEditsRequest

Name Type Description Required Default
image stringa o matrice Immagini da modificare. Deve essere un file di immagine supportato o una matrice di immagini. Ogni immagine deve essere un file png o jpg inferiore a 25 MB. Yes
mask string Immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indicano dove deve essere modificata l'immagine. Se sono disponibili più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, minore di 4 MB e avere le stesse dimensioni dell'immagine. No
n integer Numero di immagini da generare. No 1
prompt string Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri. Yes
quality imageQuality Qualità dell'immagine che verrà generata. No auto
response_format imagesResponseFormat Formato in cui vengono restituite le immagini generate. No url
size imageSize Dimensioni delle immagini generate. No auto
user string Identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare l'abuso. No

generateImagesResponse

Name Type Description Required Default
created integer Timestamp unix al momento della creazione dell'operazione. Yes
data array Dati del risultato dell'operazione, se l'operazione ha esito positivo Yes
usage imageGenerationsUsage Rappresenta i dettagli di utilizzo dei token per le richieste di generazione di immagini. Solo per i modelli di serie gpt-image-1. No

imageResult

L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.

Name Type Description Required Default
b64_json string Immagine con codifica Base64 No
content_filter_results dalleContentFilterResults Informazioni sui risultati del filtro del contenuto. No
prompt_filter_results dalleFilterResults Informazioni sulla categoria di filtro dei contenuti (odio, violenza, self_harm), se è stato rilevato, nonché sul livello di gravità (very_low, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se è stato filtrato o meno. Informazioni sul contenuto jailbreak e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. E informazioni sull'elenco di blocchi dei clienti, se è stato filtrato e il relativo ID. No
revised_prompt string Richiesta usata per generare l'immagine, se è presente una revisione al prompt. No
url string URL dell'immagine. No

imageGenerationsUsage

Rappresenta i dettagli di utilizzo dei token per le richieste di generazione di immagini. Solo per i modelli di serie gpt-image-1.

Name Type Description Required Default
input_tokens integer Numero di token di input. No
input_tokens_details object Dettaglio dei token di input. No
└─ image_tokens integer Numero di token di immagine. No
└─ text_tokens integer Numero di token di testo. No
output_tokens integer Numero di token di output. No
total_tokens integer Numero totale di token usati. No

line

Oggetto linea contenuto costituito da una sequenza adiacente di elementi di contenuto, ad esempio parole e segni di selezione.

Name Type Description Required Default
spans array Matrice di intervalli che rappresentano gli oggetti rilevati e le relative informazioni sul rettangolo di selezione. Yes
text string Yes

span

Oggetto span che rappresenta un oggetto rilevato e le relative informazioni sul rettangolo di selezione.

Name Type Description Required Default
length integer Lunghezza dell'intervallo in caratteri, misurata in punti di codice Unicode. Yes
offset integer Offset di caratteri all'interno del testo in cui inizia l'intervallo. Questo offset viene definito come posizione del primo carattere dell'intervallo, contando dall'inizio del testo come punti di codice Unicode. Yes
polygon array Matrice di oggetti che rappresentano punti nel poligono che racchiude l'oggetto rilevato. Yes
text string Contenuto di testo dell'intervallo che rappresenta l'oggetto rilevato. Yes

runCompletionUsage

Statistiche di utilizzo correlate all'esecuzione. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, queuede così via).

Name Type Description Required Default
completion_tokens integer Numero di token di completamento usati durante l'esecuzione. Yes
prompt_tokens integer Numero di token di richiesta usati durante l'esecuzione. Yes
total_tokens integer Numero totale di token usati (prompt + completamento). Yes

runStepCompletionUsage

Statistiche di utilizzo correlate al passaggio di esecuzione. Questo valore sarà null mentre lo stato del passaggio di esecuzione è in_progress.

Name Type Description Required Default
completion_tokens integer Numero di token di completamento usati nel corso del passaggio di esecuzione. Yes
prompt_tokens integer Numero di token di richiesta usati nel corso del passaggio di esecuzione. Yes
total_tokens integer Numero totale di token usati (prompt + completamento). Yes

assistantsApiResponseFormatOption

Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.

Questo componente può essere uno dei seguenti:

assistantsApiResponseFormat

Oggetto che descrive l'output previsto del modello. Se json_object all'esecuzione è consentito passare solo function il tipo tools . Se text il modello può restituire testo o qualsiasi valore necessario.

Name Type Description Required Default
type string Deve essere uno di text o json_object. No text

Tipo di enumerazione: AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Rappresenta un oggetto assistant che può chiamare il modello e usare gli strumenti.

Name Type Description Required Default
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato l'assistente. Yes
description string Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
Yes
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
instructions string Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri.
Yes
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
Yes
model string ID del modello da usare. Yes
name string Nome dell'assistente. La lunghezza massima è di 256 caratteri.
Yes
object string Tipo di oggetto, che è sempre assistant. Yes
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, file_searcho function.
Yes []
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1

Enumerazione dell'oggetto: AssistantObjectType

Value Description
assistant Tipo di oggetto, che è sempre assistente

createAssistantRequest

Name Type Description Required Default
description string Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string Yes
name string Nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
└─ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function.
No []
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string No
name string Nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Esegue l'override dell'elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Esegue l'override dell'archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrievalo function.
No []
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Enumerazione dell'oggetto: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Tipo di strumento da definire: code_interpreter Yes

Enumerazione tipo: assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Esegue l'override dello strumento di ricerca file. No
└─ max_num_results integer Numero massimo di risultati restituiti dallo strumento di ricerca file. Il valore predefinito è 20 per i modelli gpt-4* e 5 per gpt-3.5-turbo. Questo numero deve essere compreso tra 1 e 50 inclusi.

Si noti che lo strumento di ricerca file può restituire meno dei max_num_results risultati.
No
type string Tipo di strumento da definire: file_search Yes

Enumerazione tipo: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Tipo di strumento da definire: file_search Yes

Enumerazione tipo: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object Definizione della funzione. Yes
└─ description string Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. No
└─ name string Nome della funzione da chiamare. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. No
└─ parameters chatCompletionFunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Vedere la guida/ per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. No
type string Tipo di strumento da definire: function Yes

Enumerazione tipo: assistantToolsFunction

Value Description
function

truncationObject

Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.

Name Type Description Required Default
last_messages integer Numero di messaggi più recenti dal thread durante la costruzione del contesto per l'esecuzione. No
type string Strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Se impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza del contesto del modello, max_prompt_tokens. Yes

Enumerazione di tipo: TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà strumenti e genera invece un messaggio. auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento. Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.

Questo componente può essere uno dei seguenti:

assistantsNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare uno strumento specifico.

Name Type Description Required Default
function object No
└─ name string Nome della funzione da chiamare. No
type string Tipo dello strumento. Se type è function, il nome della funzione deve essere impostato Yes

Enumerazione tipo: AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Rappresenta un'esecuzione eseguita in un thread.

Name Type Description Required Default
assistant_id string ID dell'assistente utilizzato per l'esecuzione di questa esecuzione. Yes
cancelled_at integer Timestamp Unix (in secondi) per il momento in cui l'esecuzione è stata annullata. Yes
completed_at integer Timestamp Unix (in secondi) per il completamento dell'esecuzione. Yes
created_at integer Timestamp Unix (in secondi) per il momento in cui è stata creata l'esecuzione. Yes
expires_at integer Timestamp Unix (in secondi) per quando l'esecuzione scadrà. Yes
failed_at integer Timestamp Unix (in secondi) per quando l'esecuzione non è riuscita. Yes
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
incomplete_details object Dettagli sul motivo per cui l'esecuzione è incompleta. null Sarà se l'esecuzione non è incompleta. Yes
└─ reason string Motivo per cui l'esecuzione è incompleta. Questo farà riferimento al limite di token specifico raggiunto nel corso dell'esecuzione. No
instructions string Istruzioni usate dall'assistente per questa esecuzione. Yes
last_error object Ultimo errore associato a questa esecuzione. null Sarà se non sono presenti errori. Yes
└─ code string Uno di server_error o rate_limit_exceeded. No
└─ message string Descrizione leggibile dell'errore. No
max_completion_tokens integer Numero massimo di token di completamento specificati per essere stati usati durante l'esecuzione.
Yes
max_prompt_tokens integer Numero massimo di token di richiesta specificati per essere stati usati durante l'esecuzione.
Yes
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
Yes
model string Modello utilizzato dall'assistente per questa esecuzione. Yes
object string Tipo di oggetto, che è sempre thread.run. Yes
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
required_action object Dettagli sull'azione necessaria per continuare l'esecuzione. null Sarà se non è necessaria alcuna azione. Yes
└─ submit_tool_outputs object Dettagli sugli output dello strumento necessari per continuare l'esecuzione. No
└─ tool_calls array Elenco delle chiamate degli strumenti pertinenti. No
└─ type enum Per il momento, questo è sempre submit_tool_outputs.
Valori possibili: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
Yes
started_at integer Timestamp Unix (in secondi) per l'avvio dell'esecuzione. Yes
status string Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelledfailed, , completedo expired. Yes
temperature number Temperatura di campionamento utilizzata per questa esecuzione. Se non è impostato, il valore predefinito è 1. No
thread_id string ID dei thread eseguiti in come parte di questa esecuzione. Yes
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
Yes
tools array Elenco di strumenti usati dall'assistente per questa esecuzione. Yes []
top_p number Valore di campionamento del nucleo utilizzato per questa esecuzione. Se non è impostato, il valore predefinito è 1. No
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. Yes
usage runCompletionUsage Statistiche di utilizzo correlate all'esecuzione. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, queuede così via). Yes

Enumerazione dell'oggetto: runObjectType

Value Description
thread.run Tipo di oggetto run che è sempre thread.run

Enumerazione status: RunObjectStatus

Value Description
queued Stato in coda
in_progress Stato in_progress
requires_action Stato required_action
cancelling Stato di annullamento
cancelled Stato annullato
failed Stato non riuscito
completed Stato completato
expired Stato scaduto

createRunRequest

Name Type Description Required Default
additional_instructions string Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. No
additional_messages array Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. No
assistant_id string ID dell'assistente da usare per eseguire questa esecuzione. Yes
instructions string Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
max_prompt_tokens integer Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio.
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
tools array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio.
No
tool_outputs array Elenco di strumenti per i quali vengono inviati gli output. Yes

runToolCallObject

Oggetti chiamata dello strumento

Name Type Description Required Default
function object Definizione della funzione. Yes
└─ arguments string Argomenti previsti dal modello per passare alla funzione. No
└─ name string Nome della funzione. No
id string ID della chiamata allo strumento. Questo ID deve essere fatto riferimento quando si inviano gli output dello strumento in usando gli output dello strumento di invio per eseguire endpointendpoint. Yes
type string Per il tipo di strumento chiamare l'output è necessario. Per il momento, questo è sempre function. Yes

Enumerazione type: RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string ID dell'assistente da usare per eseguire questa esecuzione. Yes
instructions string Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. No
max_completion_tokens integer Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di completamento specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
max_prompt_tokens integer Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il massimo sforzo per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se l'esecuzione supera il numero di token di richiesta specificati, l'esecuzione terminerà con lo stato incomplete. Per altre info, vedi incomplete_details .
No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
model string ID dei modelli da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo motivo, il modello può generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione è stata superata o che la conversazione ha superato max_tokens la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Runas, terminando quando Run entra in uno stato terminale con un data: [DONE] messaggio.
No
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa impostazione solo quando si imposta stream: true.
No None
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno strumento.
Specificando uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} forza il modello a chiamare tale strumento.
No
tool_resources object Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. No
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa o temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. No

threadObject

Rappresenta un thread che contiene messaggi.

Name Type Description Required Default
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato il thread. Yes
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
Yes
object string Tipo di oggetto, che è sempre thread. Yes
tool_resources object Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
Yes
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No

Enumerazione dell'oggetto: ThreadObjectType

Value Description
thread Tipo di oggetto thread che è sempre thread

createThreadRequest

Name Type Description Required Default
messages array Elenco di messaggi con cui avviare il thread. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
tool_resources object Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No
└─ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
tool_resources object Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo code_interpreter strumento richiede un elenco di ID file, mentre lo file_search strumento richiede un elenco di ID archivio vettoriali.
No
└─ code_interpreter object No
└─ file_ids array Elenco di ID file resi disponibili allo code_interpreter strumento. Allo strumento possono essere associati al massimo 20 file.
No []
└─ file_search object No
└─ vector_store_ids array Archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Enumerazione dell'oggetto: DeleteThreadResponseObjectState

Value Description
thread.deleted Stato dell'oggetto di risposta del thread di eliminazione, ovvero thread.deleted

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Rappresenta un messaggio all'interno di un thread.

Name Type Description Required Default
assistant_id string Se applicabile, l'ID dell'assistente che ha creato il messaggio. Yes
attachments array Elenco di file allegati al messaggio e degli strumenti a cui sono stati aggiunti. Yes
completed_at integer Timestamp Unix (in secondi) per il completamento del messaggio. Yes
content array Contenuto del messaggio in matrice di testo e/o immagini. Yes
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato il messaggio. Yes
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
incomplete_at integer Timestamp Unix (in secondi) per il momento in cui il messaggio è stato contrassegnato come incompleto. Yes
incomplete_details object In un messaggio incompleto, informazioni dettagliate sul motivo per cui il messaggio è incompleto. Yes
└─ reason string Motivo per cui il messaggio è incompleto. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
Yes
object string Tipo di oggetto, che è sempre thread.message. Yes
role string Entità che ha generato il messaggio. Uno di user o assistant. Yes
run_id string Se applicabile, l'ID dell'esecuzione associata alla creazione di questo messaggio. Yes
status string Stato del messaggio, che può essere in_progress, incompleteo completed. Yes
thread_id string ID thread a cui appartiene il messaggio. Yes

Enumerazione dell'oggetto: MessageObjectType

Value Description
thread.message Tipo di oggetto messaggio che è thread.message

Enumerazione status: MessageObjectStatus

Value Description
in_progress
incomplete
completed

Role Enum: MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming.

Name Type Description Required Default
delta object Delta contenente i campi modificati nel messaggio. Yes
└─ content array Contenuto del messaggio in matrice di testo e/o immagini. No
└─ role string Entità che ha generato il messaggio. Uno di user o assistant. No
id string Identificatore del messaggio a cui è possibile fare riferimento negli endpoint API. Yes
object string Tipo di oggetto, che è sempre thread.message.delta. Yes

Enumerazione dell'oggetto: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. No
content string Contenuto del messaggio. Yes
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
role string Ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.
- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione.
Yes

Enumerazione ruolo: CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Enumerazione dell'oggetto: DeleteMessageResponseObject

Value Description
thread.message.deleted Stato dell'oggetto di risposta del messaggio di eliminazione

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Fa riferimento a un file di immagine nel contenuto di un messaggio.

Name Type Description Required Default
image_file object Yes
└─ file_id string ID file dell'immagine nel contenuto del messaggio. No
type string Sempre image_file. Yes

Enumerazione tipo: MessageContentImageFileObjectType

Value Description
image_file Tipo di file di immagine del contenuto del messaggio

messageContentTextObject

Contenuto di testo che fa parte di un messaggio.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ value string Dati che costituiscono il testo. No
type string Sempre text. Yes

Enumerazione tipo: messageContentTextObjectType

Value Description
text Tipo di oggetto del contenuto del messaggio

messageContentTextAnnotationsFileCitationObject

Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "recupero" per cercare i file.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└─ file_id string ID del file specifico da cui deriva la citazione. No
start_index integer Yes
text string Testo nel contenuto del messaggio che deve essere sostituito. Yes
type string Sempre file_citation. Yes

Enumerazione tipo: FileCitationObjectType

Value Description
file_citation Tipo di oggetto di citazione file

messageContentTextAnnotationsFilePathObject

URL del file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└─ file_id string ID del file generato. No
start_index integer Yes
text string Testo nel contenuto del messaggio che deve essere sostituito. Yes
type string Sempre file_path. Yes

Enumerazione tipo: FilePathObjectType

Value Description
file_path Tipo di oggetto percorso file

messageDeltaContentImageFileObject

Fa riferimento a un file di immagine nel contenuto di un messaggio.

Name Type Description Required Default
image_file object No
└─ file_id string ID file dell'immagine nel contenuto del messaggio. No
index integer Indice della parte di contenuto nel messaggio. Yes
type string Sempre image_file. Yes

Enumerazione tipo: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Contenuto di testo che fa parte di un messaggio.

Name Type Description Required Default
index integer Indice della parte di contenuto nel messaggio. Yes
text object No
└─ annotations array No
└─ value string Dati che costituiscono il testo. No
type string Sempre text. Yes

Enumerazione tipo: MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare i file.

Name Type Description Required Default
end_index integer No
file_citation object No
└─ file_id string ID del file specifico da cui deriva la citazione. No
└─ quote string Virgolette specifiche nel file. No
index integer Indice dell'annotazione nella parte del contenuto di testo. Yes
start_index integer No
text string Testo nel contenuto del messaggio che deve essere sostituito. No
type string Sempre file_citation. Yes

Enumerazione tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

URL del file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.

Name Type Description Required Default
end_index integer No
file_path object No
└─ file_id string ID del file generato. No
index integer Indice dell'annotazione nella parte del contenuto di testo. Yes
start_index integer No
text string Testo nel contenuto del messaggio che deve essere sostituito. No
type string Sempre file_path. Yes

Enumerazione tipo: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Rappresenta un passaggio in esecuzione di un'esecuzione.

Name Type Description Required Default
assistant_id string ID dell'assistente associato al passaggio di esecuzione. Yes
cancelled_at integer Timestamp Unix (in secondi) per quando il passaggio di esecuzione è stato annullato. Yes
completed_at integer Timestamp Unix (in secondi) per quando il passaggio di esecuzione è stato completato. Yes
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato il passaggio di esecuzione. Yes
expired_at integer Timestamp Unix (in secondi) per quando il passaggio di esecuzione è scaduto. Un passaggio viene considerato scaduto se l'esecuzione padre è scaduta. Yes
failed_at integer Timestamp Unix (in secondi) per quando il passaggio di esecuzione non è riuscito. Yes
id string Identificatore del passaggio di esecuzione, a cui è possibile fare riferimento negli endpoint API. Yes
last_error object Ultimo errore associato a questo passaggio di esecuzione. null Sarà se non sono presenti errori. Yes
└─ code string Uno di server_error o rate_limit_exceeded. No
└─ message string Descrizione leggibile dell'errore. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
Yes
object string Tipo di oggetto, che è sempre assistant.run.step. Yes
run_id string ID dell'esecuzione di cui fa parte questo passaggio di esecuzione. Yes
status string Stato dell'esecuzione, che può essere in_progress, , cancelledfailed, completedo expired. Yes
step_details runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject Dettagli del passaggio di esecuzione. Yes
thread_id string ID dei thread eseguiti. Yes
type string Tipo di passaggio di esecuzione, che può essere message_creation o tool_calls. Yes

Enumerazione dell'oggetto: RunStepObjectType

Value Description
assistant.run.step Tipo di oggetto, che è sempre assistant.run.step

Enumerazione type: RunStepObjectType

Value Description
message_creation Passaggio di esecuzione message_creation
tool_calls Passaggio di esecuzione tool_calls

enumerazione di stato: RunStepObjectStatus

Value Description
in_progress Stato di esecuzione in_progress
cancelled Stato dell'esecuzione annullata
failed Stato dell'esecuzione annullata
completed Stato dell'esecuzione annullata
expired Stato dell'esecuzione annullata

runStepDeltaObject

Rappresenta un delta del passaggio di esecuzione, ad esempio i campi modificati in un passaggio di esecuzione durante lo streaming.

Name Type Description Required Default
delta object Delta contenente i campi modificati nel passaggio di esecuzione. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject Dettagli del passaggio di esecuzione. No
id string Identificatore del passaggio di esecuzione, a cui è possibile fare riferimento negli endpoint API. Yes
object string Tipo di oggetto, che è sempre thread.run.step.delta. Yes

Enumerazione dell'oggetto: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Dettagli della creazione del messaggio tramite il passaggio di esecuzione.

Name Type Description Required Default
message_creation object Yes
└─ message_id string ID del messaggio creato da questo passaggio di esecuzione. No
type string Sempre message_creation. Yes

Enumerazione tipo: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Dettagli della creazione del messaggio tramite il passaggio di esecuzione.

Name Type Description Required Default
message_creation object No
└─ message_id string ID del messaggio creato da questo passaggio di esecuzione. No
type string Sempre message_creation. Yes

Enumerazione tipo: RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Dettagli della chiamata allo strumento.

Name Type Description Required Default
tool_calls array Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpretero retrievalfunction.
Yes
type string Sempre tool_calls. Yes

Enumerazione tipo: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Dettagli della chiamata allo strumento.

Name Type Description Required Default
tool_calls array Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpretero file_searchfunction.
No
type string Sempre tool_calls. Yes

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

I dettagli dello strumento Interprete del codice chiamano il passaggio di esecuzione.

Name Type Description Required Default
code_interpreter object Definizione di chiamata dello strumento Interprete di codice. Yes
└─ input string Input per la chiamata dello strumento Interprete del codice. No
└─ outputs array Output della chiamata dello strumento Interprete del codice. L'interprete del codice può restituire uno o più elementi, incluso testo (logs) o immagini (image). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. No
id string ID della chiamata allo strumento. Yes
type string Tipo di chiamata allo strumento. Questo sarà code_interpreter sempre per questo tipo di chiamata allo strumento. Yes

Enumerazione tipo: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

I dettagli dello strumento Interprete del codice chiamano il passaggio di esecuzione.

Name Type Description Required Default
code_interpreter object Definizione di chiamata dello strumento Interprete di codice. No
└─ input string Input per la chiamata dello strumento Interprete del codice. No
└─ outputs array Output della chiamata dello strumento Interprete del codice. L'interprete del codice può restituire uno o più elementi, incluso testo (logs) o immagini (image). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. No
id string ID della chiamata allo strumento. No
index integer L'indice della chiamata dello strumento nello strumento chiama matrice. Yes
type string Tipo di chiamata allo strumento. Questo sarà code_interpreter sempre per questo tipo di chiamata allo strumento. Yes

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

L'output di testo dello strumento Interprete codice viene chiamato come parte di un passaggio di esecuzione.

Name Type Description Required Default
logs string Output di testo dalla chiamata dello strumento Interprete del codice. Yes
type string Sempre logs. Yes

Enumerazione tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

L'output di testo dello strumento Interprete codice viene chiamato come parte di un passaggio di esecuzione.

Name Type Description Required Default
index integer Indice dell'output nella matrice di output. Yes
logs string Output di testo dalla chiamata dello strumento Interprete del codice. No
type string Sempre logs. Yes

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└─ file_id string ID file dell'immagine. No
type string Sempre image. Yes

Enumerazione tipo: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└─ file_id string ID file dell'immagine. No
index integer Indice dell'output nella matrice di output. Yes
type string Sempre image. Yes

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Per il momento, questo sarà sempre un oggetto vuoto. Yes
└─ results array Risultati della ricerca di file. No
id string ID dell'oggetto chiamata dello strumento. Yes
type string Tipo di chiamata allo strumento. Questo sarà file_search sempre per questo tipo di chiamata allo strumento. Yes

Enumerazione tipo: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Istanza del risultato della ricerca di file.

Name Type Description Required Default
content array Contenuto del risultato trovato. Il contenuto viene incluso solo se richiesto tramite il parametro di query di inclusione. No
file_id string ID del file in cui è stato trovato il risultato. Yes
file_name string Nome del file in cui è stato trovato il risultato. Yes
score number Punteggio del risultato. Tutti i valori devono essere un numero a virgola mobile compreso tra 0 e 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Per il momento, questo sarà sempre un oggetto vuoto. Yes
id string ID dell'oggetto chiamata dello strumento. No
index integer L'indice della chiamata dello strumento nello strumento chiama matrice. Yes
type string Tipo di chiamata allo strumento. Questo sarà retrieval sempre per questo tipo di chiamata allo strumento. Yes

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Definizione della funzione chiamata. Yes
└─ arguments string Argomenti passati alla funzione. No
└─ name string Nome della funzione. No
└─ output string Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. No
id string ID dell'oggetto chiamata dello strumento. Yes
type string Tipo di chiamata allo strumento. Questo sarà function sempre per questo tipo di chiamata allo strumento. Yes

Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Definizione della funzione chiamata. No
└─ arguments string Argomenti passati alla funzione. No
└─ name string Nome della funzione. No
└─ output string Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. No
id string ID dell'oggetto chiamata dello strumento. No
index integer L'indice della chiamata dello strumento nello strumento chiama matrice. Yes
type string Tipo di chiamata allo strumento. Questo sarà function sempre per questo tipo di chiamata allo strumento. Yes

Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

Criteri di scadenza per un archivio vettoriale.

Name Type Description Required Default
anchor string Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at. Yes
days integer Numero di giorni dopo l'ora di ancoraggio che l'archivio vettoriale scadrà. Yes

Enumerazione di ancoraggio: VectorStoreExpirationAfterAnchor

Value Description
last_active_at Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza.

vectorStoreObject

Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo file_search strumento.

Name Type Description Required Default
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato l'archivio vettoriale. Yes
expires_after vectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
expires_at integer Timestamp Unix (in secondi) per la scadenza dell'archivio vettoriale. No
file_counts object Yes
└─ cancelled integer Numero di file annullati. No
└─ completed integer Numero di file elaborati correttamente. No
└─ failed integer Numero di file che non sono stati elaborati. No
└─ in_progress integer Numero di file in corso di elaborazione. No
└─ total integer Numero totale di file. No
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
last_active_at integer Timestamp Unix (in secondi) per l'ultima attività dell'archivio vettoriale. Yes
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
Yes
name string Nome dell'archivio vettoriale. Yes
object enum Tipo di oggetto, che è sempre vector_store.
Valori possibili: vector_store
Yes
status string Stato dell'archivio vettoriale, che può essere expired, in_progresso completed. Lo stato completed indica che l'archivio vettoriale è pronto per l'uso. Yes
usage_bytes integer Numero totale di byte utilizzati dai file nell'archivio vettoriale. Yes

Enumerazione status: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
expires_after vectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
file_ids array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
name string Nome dell'archivio vettoriale. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Criteri di scadenza per un archivio vettoriale. No
metadata object Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono contenere un massimo di 64 caratteri e i valori possono contenere un massimo di 512 caratteri.
No
name string Nome dell'archivio vettoriale. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Enumerazione dell'oggetto: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted Stato dell'oggetto risposta dell'archivio vettoriale di eliminazione

vectorStoreFileObject

Elenco di file collegati a un archivio vettoriale.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. Applicabile solo se file_ids non è vuoto. No
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato il file dell'archivio vettoriale. Yes
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
last_error object Ultimo errore associato a questo file dell'archivio vettoriale. null Sarà se non sono presenti errori. Yes
└─ code string Uno di server_error o o invalid_fileunsupported_file . No
└─ message string Descrizione leggibile dell'errore. No
object string Tipo di oggetto, che è sempre vector_store.file. Yes
status string Stato del file dell'archivio vettoriale, che può essere in_progress, completed, cancelledo failed. Lo stato completed indica che il file dell'archivio vettoriale è pronto per l'uso. Yes
usage_bytes integer Utilizzo totale dell'archivio vettoriale in byte. Si noti che questo può essere diverso dalle dimensioni del file originale. Yes
vector_store_id string ID dell'archivio vettoriale a cui è associato il file. Yes

Enumerazione dell'oggetto: VectorStoreFileObjectType

Value Description
vector_store.file

Enumerazione status: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Viene restituito quando la strategia di suddivisione in blocchi è sconosciuta. In genere, ciò è dovuto al fatto che il file è stato indicizzato prima dell'introduzione del chunking_strategy concetto nell'API.

Name Type Description Required Default
type string Sempre other. Yes

tipo Enum: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Sempre static. Yes

type Enum: StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Numero di token che si sovrappongono tra blocchi. Il valore predefinito è 400.

Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Numero massimo di token in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096. Yes

autoChunkingStrategyRequestParam

Strategia predefinita. Questa strategia usa attualmente un max_chunk_size_tokens oggetto di 800 e chunk_overlap_tokens di 400.

Name Type Description Required Default
type enum Sempre auto.
Valori possibili: auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Sempre static.
Valori possibili: static
Yes

chunkingStrategyRequestParam

Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia.

Questo componente può essere uno dei seguenti:

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. No
file_id string ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Enumerazione dell'oggetto: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Batch di file collegati a un archivio vettoriale.

Name Type Description Required Default
created_at integer Timestamp Unix (in secondi) per il momento in cui è stato creato il batch dei file dell'archivio vettoriale. Yes
file_counts object Yes
└─ cancelled integer Numero di file annullati. No
└─ completed integer Numero di file elaborati. No
└─ failed integer Numero di file che non sono stati elaborati. No
└─ in_progress integer Numero di file in corso di elaborazione. No
└─ total integer Numero totale di file. No
id string Identificatore a cui è possibile fare riferimento negli endpoint API. Yes
object string Tipo di oggetto, che è sempre vector_store.file_batch. Yes
status string Stato del batch di file dell'archivio vettoriale, che può essere in_progress, completedcancelledo failed. Yes
vector_store_id string ID dell'archivio vettoriale a cui è associato il file. Yes

Enumerazione dell'oggetto: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Enumerazione status: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la auto strategia. No
file_ids array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo possono accedere ai file. Yes

assistantStreamEvent

Rappresenta un evento generato durante lo streaming di un oggetto Run.

Ogni evento in un flusso di eventi inviati dal server ha una event proprietà e data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Vengono generati eventi ogni volta che viene creato un nuovo oggetto, passa a un nuovo stato o viene trasmesso in parti (delta). Ad esempio, viene generato thread.run.created quando viene creata una nuova esecuzione, thread.run.completed al termine di un'esecuzione e così via. Quando un Assistente sceglie di creare un messaggio durante un'esecuzione, viene generato un thread.message.created eventevento , thread.message.in_progress molti thread.message.delta eventi e infine un thread.message.completed evento.

È possibile aggiungere altri eventi nel tempo, pertanto è consigliabile gestire correttamente gli eventi sconosciuti nel codice.

Questo componente può essere uno dei seguenti:

threadStreamEvent

Questo componente può essere uno dei seguenti:

thread.created

Si verifica quando viene creato un nuovo thread.

Name Type Description Required Default
data threadObject Rappresenta un thread che contiene messaggi. Yes
event string Yes

Data: threadObject

Enumerazione evento: ThreadStreamEventEnum

Value Description
thread.created Evento creato dal thread

runStreamEvent

Questo componente può essere uno dei seguenti:

thread.run.created

Si verifica quando viene creata una nuova esecuzione.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Si verifica quando un'esecuzione passa a uno queued stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Si verifica quando un'esecuzione passa a uno in_progress stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Si verifica quando un'esecuzione passa a uno requires_action stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Si verifica al completamento di un'esecuzione.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Si verifica quando un'esecuzione non riesce.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Si verifica quando un'esecuzione passa a uno cancelling stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Si verifica quando un'esecuzione viene annullata.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Si verifica alla scadenza di un'esecuzione.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione eseguita in un thread. Yes
event string Yes

Data: runObject

Enumerazione evento: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Questo componente può essere uno dei seguenti:

thread.run.step.created

Si verifica quando viene creato un passaggio di esecuzione.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
Yes
event string Yes

Data: runStepObject

Enumerazione evento: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Si verifica quando un passaggio di esecuzione passa a uno in_progress stato.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
Yes
event string Yes

Data: runStepObject

Enumerazione evento: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Si verifica quando vengono trasmessi parti di un passaggio di esecuzione.

Name Type Description Required Default
data runStepDeltaObject Rappresenta un delta del passaggio di esecuzione, ad esempio i campi modificati in un passaggio di esecuzione durante lo streaming.
Yes
event string Yes

Data: runStepDeltaObject

Enumerazione evento: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Si verifica al completamento di un passaggio di esecuzione.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
Yes
event string Yes

Data: runStepObject

Enumerazione evento: RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Si verifica quando un passaggio di esecuzione ha esito negativo.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
Yes
event string Yes

Data: runStepObject

Enumerazione evento: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Si verifica quando un passaggio di esecuzione viene annullato.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
Yes
event string Yes

Data: runStepObject

Enumerazione evento: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Si verifica alla scadenza di un passaggio di esecuzione.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
Yes
event string Yes

Data: runStepObject

Enumerazione evento: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Questo componente può essere uno dei seguenti:

thread.message.created

Si verifica quando viene creato un messaggio.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Enumerazione evento: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Si verifica quando un messaggio passa a uno in_progress stato.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Enumerazione evento: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Si verifica quando vengono trasmessi parti di un messaggio.

Name Type Description Required Default
data messageDeltaObject Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming.
Yes
event string Yes

Data: messageDeltaObject

Enumerazione evento: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Si verifica al completamento di un messaggio.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Enumerazione evento: MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Si verifica al termine di un messaggio prima del completamento.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Enumerazione evento: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Questo componente può essere uno dei seguenti:

Click

Azione di clic.

Name Type Description Required Default
button enum Indica il pulsante del mouse premuto durante il clic. Uno di left, rightwheel, back, o forward.

Valori possibili: left, rightwheel, , back,forward
Yes
type enum Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre impostata su click.

Valori possibili: click
Yes
x integer Coordinata x in cui si è verificato il clic.
Yes
y integer Coordinata y in cui si è verificato il clic.
Yes

CodeInterpreterFileOutput

Output di una chiamata dello strumento dell'interprete di codice che è un file.

Name Type Description Required Default
files array Yes
type enum Tipo di output del file dell'interprete del codice. Sempre files.

Valori possibili: files
Yes

CodeInterpreterTextOutput

Output di una chiamata dello strumento dell'interprete di codice che è testo.

Name Type Description Required Default
logs string Log della chiamata dello strumento dell'interprete del codice.
Yes
type enum Tipo dell'output di testo dell'interprete del codice. Sempre logs.

Valori possibili: logs
Yes

CodeInterpreterTool

Strumento che esegue il codice.

Name Type Description Required Default
file_ids array ID dei file su cui eseguire il codice.
Yes
type enum Tipo dello strumento dell'interprete di codice. Sempre code_interpreter.

Valori possibili: code_interpreter
Yes

CodeInterpreterToolCall

Chiamata dello strumento per eseguire il codice.

Name Type Description Required Default
code string Codice da eseguire.
Yes
id string ID univoco della chiamata dello strumento dell'interprete del codice.
Yes
results array Risultati della chiamata dello strumento dell'interprete del codice.
Yes
status enum Stato della chiamata dello strumento dell'interprete del codice.

Valori possibili: in_progress, interpreting, completed
Yes
type enum Tipo di chiamata dello strumento dell'interprete del codice. Sempre code_interpreter_call.

Valori possibili: code_interpreter_call
Yes

CodeInterpreterToolOutput

Questo componente può essere uno dei seguenti:

ComparisonFilter

Filtro utilizzato per confrontare una chiave di attributo specificata con un determinato valore usando un'operazione di confronto definita.

Name Type Description Required Default
key string Chiave da confrontare con il valore. Yes
type enum Specifica l'operatore di confronto: eq, ne, gt, gte, lt, lte.
- eq:Uguale
- ne: diverso da
- gt:Maggiore
- gte: maggiore o uguale a
- lt:Meno
- lte: minore o uguale a

Valori possibili: eq, negt, gte, , ltlte
Yes
value stringa o numero o valore booleano Valore da confrontare con la chiave dell'attributo; supporta tipi stringa, number o booleani. Yes

CompoundFilter

Combinare più filtri usando and o or.

Name Type Description Required Default
filters array Matrice di filtri da combinare. Gli elementi possono essere ComparisonFilter o CompoundFilter. Yes
type enum Tipo di operazione: and o or.
Valori possibili: and, or
Yes

ComputerAction

Questo componente può essere uno dei seguenti:

ComputerScreenshotImage

Immagine di screenshot del computer usata con lo strumento per l'uso del computer.

Name Type Description Required Default
file_id string Identificatore di un file caricato che contiene lo screenshot. No
image_url string URL dell'immagine di screenshot. No
type enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.

Valori possibili: computer_screenshot
Yes

ComputerTool

Strumento che controlla un computer virtuale.

Name Type Description Required Default
display_height number Altezza dello schermo del computer.
Yes
display_width number Larghezza della visualizzazione del computer.
Yes
environment enum Tipo di ambiente del computer da controllare.

Valori possibili: mac, windows, ubuntu, browser
Yes
type enum Tipo dello strumento di utilizzo del computer. Sempre computer_use_preview.

Valori possibili: computer-use-preview
Yes

ComputerToolCall

Una chiamata di strumento a uno strumento per l'uso di un computer.

Name Type Description Required Default
action ComputerAction Yes
call_id string Identificatore usato per rispondere alla chiamata dello strumento con output.
Yes
id string ID univoco della chiamata al computer. Yes
pending_safety_checks array Controlli di sicurezza in sospeso per la chiamata al computer.
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
Yes
type enum Tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call
Yes

ComputerToolCallOutput

Output di una chiamata allo strumento del computer.

Name Type Description Required Default
acknowledged_safety_checks array I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dallo sviluppatore.
No
call_id string ID della chiamata dello strumento del computer che ha prodotto l'output.
Yes
id string ID dell'output delle chiamate dello strumento computer.
No
output ComputerScreenshotImage Immagine di screenshot del computer usata con lo strumento per l'uso del computer.
Yes
status enum Stato dell'input del messaggio. Uno di in_progress, completedo incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di output delle chiamate dello strumento computer. Sempre computer_call_output.

Valori possibili: computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dallo sviluppatore.
No
call_id string ID della chiamata dello strumento del computer che ha prodotto l'output.
Yes
id string ID univoco dell'output dello strumento di chiamata al computer.
Yes
output ComputerScreenshotImage Immagine di screenshot del computer usata con lo strumento per l'uso del computer.
Yes
status enum Stato dell'input del messaggio. Uno di in_progress, completedo incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di output delle chiamate dello strumento computer. Sempre computer_call_output.

Valori possibili: computer_call_output
Yes

ComputerToolCallSafetyCheck

Controllo di sicurezza in sospeso per la chiamata al computer.

Name Type Description Required Default
code string Tipo del controllo di sicurezza in sospeso. Yes
id string ID del controllo di sicurezza in sospeso. Yes
message string Dettagli sul controllo di sicurezza in sospeso. Yes

Content

Contenuto di input e output multi modale.

Questo componente può essere uno dei seguenti:

Coordinate

Coppia di coordinate x/y, ad esempio { x: 100, y: 200 }.

Name Type Description Required Default
x integer The x-coordinate.
Yes
y integer The y-coordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
No
model string Modello usato per generare le risposte. No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input stringa o matrice Input di testo, immagine o file nel modello, usato per generare una risposta. Yes
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
No
max_output_tokens integer Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento.
No
parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo.
No True
previous_response_id string ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento. No
store boolean Indica se archiviare la risposta del modello generata per il recupero successivo tramite API.
No True
stream boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server. No False
text object Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more:
- input di testo e output
- Output strutturati
No
└─ format TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito non include { "type": "text" } opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
No
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
No
tools array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire il modello sono:

- Strumenti predefiniti
No
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca il
risposta per adattare la finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
No

DoubleClick

Azione di doppio clic.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.

Valori possibili: double_click
Yes
x integer Coordinata x in cui si è verificato il doppio clic.
Yes
y integer Coordinata y in cui si è verificato il doppio clic.
Yes

Drag

Azione di trascinamento.

Name Type Description Required Default
path array Matrice di coordinate che rappresentano il percorso dell'azione di trascinamento. Le coordinate verranno visualizzate come matrice di oggetti, ad esempio[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è sempre impostata su drag.

Valori possibili: drag
Yes

EasyInputMessage

Input del messaggio per il modello con un ruolo che indica l'istruzione seguente gerarchia. Le istruzioni fornite con il ruolo o developer hanno la system precedenza sulle istruzioni fornite con il user ruolo . Si presuppone che i messaggi con il assistant ruolo siano stati generati dal modello nelle interazioni precedenti.

Name Type Description Required Default
content string o InputMessageContentList Input di testo, immagine o audio per il modello, usato per generare una risposta.
Può anche contenere risposte di assistente precedenti.
Yes
role enum Ruolo dell'input del messaggio. Uno di user, assistant, systemo developer.

Valori possibili: user, assistant, system, developer
Yes
type enum Tipo di input del messaggio. Sempre message.

Valori possibili: message
No

FileCitation

Citazione in un file.

Name Type Description Required Default
file_id string ID del file.
Yes
index integer Indice del file nell'elenco di file.
Yes
type enum Tipo di citazione del file. Sempre file_citation.

Valori possibili: file_citation
Yes

FilePath

Percorso di un file.

Name Type Description Required Default
file_id string ID del file.
Yes
index integer Indice del file nell'elenco di file.
Yes
type enum Tipo del percorso del file. Sempre file_path.

Valori possibili: file_path
Yes

FileSearchRanker

Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker.

Property Value
Description Ranker da usare per la ricerca di file. Se non specificato, userà il auto ranker.
Type string
Values auto
default_2024_08_21

FileSearchTool

Strumento che cerca il contenuto pertinente dai file caricati.

Name Type Description Required Default
filters ComparisonFilter o CompoundFilter Filtro da applicare in base agli attributi del file. No
max_num_results integer Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi.
No
ranking_options object Opzioni di classificazione per la ricerca. No
└─ ranker enum Ranker da usare per la ricerca di file.
Valori possibili: auto, default-2024-11-15
No
└─ score_threshold number Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1.
I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati.
No 0
type enum Tipo dello strumento di ricerca file. Sempre file_search.

Valori possibili: file_search
Yes
vector_store_ids array ID degli archivi vettoriali da cercare.
Yes

FileSearchToolCall

Risultati di una chiamata allo strumento di ricerca file.

Name Type Description Required Default
id string ID univoco della chiamata allo strumento di ricerca file.
Yes
queries array Query usate per cercare i file.
Yes
results array Risultati della chiamata allo strumento di ricerca file.
No
status enum Stato della chiamata allo strumento di ricerca file. Uno di in_progress, searchingincomplete o failed,

Valori possibili: in_progress, searchingcompleted, , incomplete,failed
Yes
type enum Tipo di chiamata allo strumento di ricerca file. Sempre file_search_call.

Valori possibili: file_search_call
Yes

FunctionTool

Definisce una funzione nel codice personalizzato che il modello può scegliere di chiamare.

Name Type Description Required Default
description string Descrizione della funzione. Utilizzato dal modello per determinare se chiamare o meno la funzione.
No
name string Nome della funzione da chiamare.
Yes
parameters object Oggetto schema JSON che descrive i parametri della funzione.
Yes
strict boolean Indica se applicare la convalida rigorosa dei parametri. Valore predefinito true.
Yes
type enum Tipo dello strumento funzione. Sempre function.

Valori possibili: function
Yes

FunctionToolCall

Chiamata di uno strumento per eseguire una funzione.

Name Type Description Required Default
arguments string Stringa JSON degli argomenti da passare alla funzione.
Yes
call_id string ID univoco della chiamata dello strumento di funzione generata dal modello.
Yes
id string ID univoco della chiamata dello strumento di funzione.
Yes
name string Nome della funzione da eseguire.
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di chiamata dello strumento di funzione. Sempre function_call.

Valori possibili: function_call
Yes

FunctionToolCallOutput

Output di una chiamata dello strumento di funzione.

Name Type Description Required Default
call_id string ID univoco della chiamata dello strumento di funzione generata dal modello.
Yes
id string ID univoco dell'output delle chiamate dello strumento di funzione. Popolato quando questo elemento viene restituito tramite API.
No
output string Stringa JSON dell'output della chiamata dello strumento di funzione.
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di output delle chiamate dello strumento di funzione. Sempre function_call_output.

Valori possibili: function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string ID univoco della chiamata dello strumento di funzione generata dal modello.
Yes
id string ID univoco dell'output dello strumento di chiamata di funzione.
Yes
output string Stringa JSON dell'output della chiamata dello strumento di funzione.
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di output delle chiamate dello strumento di funzione. Sempre function_call_output.

Valori possibili: function_call_output
Yes

includable

Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:

  • file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
  • message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
  • computer_call_output.output.image_url: includere gli URL dell'immagine dall'output delle chiamate al computer.
Property Value
Description Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
- file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
- message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
- computer_call_output.output.image_url: includere gli URL dell'immagine dall'output delle chiamate al computer.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Input audio per il modello.

Name Type Description Required Default
data string Dati audio con codifica Base64.
Yes
format enum Formato dei dati audio. I formati attualmente supportati sono mp3 e wav.

Valori possibili: mp3, wav
Yes
type enum Tipo dell'elemento di input. Sempre input_audio.

Valori possibili: input_audio
Yes

InputContent

Questo componente può essere uno dei seguenti:

InputFile

Input di file per il modello.

Name Type Description Required Default
file_data string Contenuto del file da inviare al modello.
No
file_id string ID del file da inviare al modello.
No
filename string Nome del file da inviare al modello.
No
type enum Tipo dell'elemento di input. Sempre input_file.

Valori possibili: input_file
Yes

InputImage

Input dell'immagine per il modello.

Name Type Description Required Default
detail enum Livello di dettaglio dell'immagine da inviare al modello. Uno di high, lowo auto. Il valore predefinito è auto.

Valori possibili: high, low, auto
Yes
file_id string ID del file da inviare al modello.
No
image_url string URL dell'immagine da inviare al modello. UN URL completo o un'immagine con codifica Base64 in un URL dati.
No
type enum Tipo dell'elemento di input. Sempre input_image.

Valori possibili: input_image
Yes

InputItem

Questo componente può essere uno dei seguenti:

InputMessage

Input del messaggio per il modello con un ruolo che indica l'istruzione seguente gerarchia. Le istruzioni fornite con il ruolo o developer hanno la system precedenza sulle istruzioni fornite con il user ruolo .

Name Type Description Required Default
content InputMessageContentList Elenco di uno o più elementi di input per il modello, contenente contenuto diverso
types.
Yes
role enum Ruolo dell'input del messaggio. Uno di user, systemo developer.

Valori possibili: user, system, developer
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di input del messaggio. Impostare sempre su message.

Valori possibili: message
No

InputMessageContentList

Elenco di uno o più elementi di input per il modello, contenente tipi di contenuto diversi.

Nessuna proprietà definita per questo componente.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Elenco di uno o più elementi di input per il modello, contenente contenuto diverso
types.
Yes
id string ID univoco dell'input del messaggio.
Yes
role enum Ruolo dell'input del messaggio. Uno di user, systemo developer.

Valori possibili: user, system, developer
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo di input del messaggio. Impostare sempre su message.

Valori possibili: message
No

InputText

Input di testo per il modello.

Name Type Description Required Default
text string Input di testo per il modello.
Yes
type enum Tipo dell'elemento di input. Sempre input_text.

Valori possibili: input_text
Yes

Item

Elemento di contenuto usato per generare una risposta.

Questo componente può essere uno dei seguenti:

ItemReference

Identificatore interno di un elemento a cui fare riferimento.

Name Type Description Required Default
id string ID dell'elemento a cui fare riferimento.
Yes
type enum Tipo di elemento a cui fare riferimento. Sempre item_reference.

Valori possibili: item_reference
Yes

ItemResource

Elemento di contenuto usato per generare una risposta.

Questo componente può essere uno dei seguenti:

KeyPress

Una raccolta di keypresse il modello desidera eseguire.

Name Type Description Required Default
keys array La combinazione di tasti che il modello richiede di premere. Si tratta di una matrice di stringhe, ognuna che rappresenta una chiave.
Yes
type enum Specifica il tipo di evento. Per un'azione keypress, questa proprietà è sempre impostata su keypress.

Valori possibili: keypress
Yes

Metadata

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Nessuna proprietà definita per questo componente.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
No
model string Modello usato per generare le risposte. No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
In genere è consigliabile modificare questa impostazione o top_p non entrambe.
No 1
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
No 1
user string Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. .
No

Move

Azione di spostamento del mouse.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è sempre impostata su move.

Valori possibili: move
Yes
x integer Coordinata x in cui spostarsi.
Yes
y integer Coordinata y in cui spostarsi.
Yes

OutputAudio

Output audio del modello.

Name Type Description Required Default
data string Dati audio con codifica Base64 dal modello.
Yes
transcript string Trascrizione dei dati audio del modello.
Yes
type enum Tipo di audio di output. Sempre output_audio.

Valori possibili: output_audio
Yes

OutputContent

Questo componente può essere uno dei seguenti:

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Stringa JSON degli argomenti da passare alla funzione.
Yes
call_id string Identificatore usato per rispondere alla chiamata dello strumento con output.
Yes
content array Ragionamento del contenuto del testo.
Yes
id string Identificatore univoco del contenuto di ragionamento.
Yes
name string Nome della funzione da eseguire.
Yes
pending_safety_checks array Controlli di sicurezza in sospeso per la chiamata al computer.
Yes
queries array Query usate per cercare i file.
Yes
results array Risultati della chiamata allo strumento di ricerca file.
No
role enum Ruolo del messaggio di output. Sempre assistant.

Valori possibili: assistant
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
Yes
type enum Tipo dell'oggetto. Sempre reasoning.

Valori possibili: reasoning
Yes

OutputMessage

Messaggio di output del modello.

Name Type Description Required Default
content array Contenuto del messaggio di output.
Yes
id string ID univoco del messaggio di output.
Yes
role enum Ruolo del messaggio di output. Sempre assistant.

Valori possibili: assistant
Yes
status enum Stato dell'input del messaggio. Uno di in_progress, completedo incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
Yes
type enum Tipo del messaggio di output. Sempre message.

Valori possibili: message
Yes

OutputText

Output di testo del modello.

Name Type Description Required Default
annotations array Annotazioni dell'output di testo.
Yes
text string Output di testo del modello.
Yes
type enum Tipo del testo di output. Sempre output_text.

Valori possibili: output_text
Yes

RealtimeSessionCreateRequest

Configurazione dell'oggetto sessione in tempo reale.

Name Type Description Required Default
input_audio_format enum Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivare una sola volta. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite l'endpoint trascrizioni e deve essere considerata come guida per il contenuto audio di input anziché esattamente quello che il modello ha sentito. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
No
└─ language string Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
No
└─ model string Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1.
No
└─ prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
instructions string Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.

Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer o stringa Numero massimo di token di output per una singola risposta di assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf.
No
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
No
model string Nome della distribuzione utilizzata per questa sessione.
No
output_audio_format enum Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di output viene campionato a una velocità di 24 kHz.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
temperature number Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Per i modelli audio una temperatura di 0,8 è altamente consigliata per ottenere prestazioni ottimali.
No 0.8
tool_choice string Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione.
No auto
tools array Strumenti (funzioni) disponibili per il modello. No
turn_detection object Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.
VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
No
└─ create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente.
No
└─ threshold number Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Nuova configurazione di sessione in tempo reale con una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto.

Name Type Description Required Default
client_secret object Chiave temporanea restituita dall'API. Yes
└─ expires_at integer Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto.
No
└─ value string Chiave temporanea utilizzabile negli ambienti client per autenticare le connessioni all'API realtime. Usare questa opzione negli ambienti lato client anziché in un token API standard, che deve essere usato solo sul lato server.
No
input_audio_format string Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
No
input_audio_transcription object Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivare una sola volta. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite Whisper e deve essere considerata come materiale sussidiario approssimativo anziché la rappresentazione riconosciuta dal modello.
No
└─ model string Il modello da usare per la trascrizione whisper-1 è l'unico modello attualmente supportato.
No
instructions string Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteponevano alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta (ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer o stringa Numero massimo di token di output per una singola risposta di assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf.
No
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
No
output_audio_format string Formato dell'audio di output. Le opzioni sono pcm16, g711_ulawo g711_alaw.
No
temperature number Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Il valore predefinito è 0,8.
No
tool_choice string Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione.
No
tools array Strumenti (funzioni) disponibili per il modello. No
turn_detection object Configurazione per il rilevamento dei turni. Può essere impostato su null per disattivare. VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente.
No
└─ prefix_padding_ms integer Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
No
└─ silence_duration_ms integer Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente.
No
└─ threshold number Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
No
└─ type string Il tipo di rilevamento dei turni è attualmente supportato solo server_vad .
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configurazione dell'oggetto sessione di trascrizione in tempo reale.

Name Type Description Required Default
include array Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento a 24 kHz, un singolo canale (mono) e un ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento vad e girare (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio di input.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio di input. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
No
└─ language string Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
No
└─ model enum Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, e .whisper-1

Valori possibili: gpt-4o-transcribe, gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
No
turn_detection object Configurazione per il rilevamento dei turni, ether Server VAD o VAD semantico. Può essere impostato su per null disattivare, nel qual caso il client deve attivare manualmente la risposta del modello.
VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente viene eseguito con uhhm, il modello assegnare un punteggio a una bassa probabilità di fine turno e attendere più tempo per consentire all'utente di continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
No
└─ create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. Desiderio del modello di rispondere. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (ad esempio conversation , di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente.
No
└─ threshold number Usato solo per server_vad la modalità. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Nuova configurazione della sessione di trascrizione in tempo reale.

Quando viene creata una sessione nel server tramite l'API REST, l'oggetto sessione contiene anche una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.

Name Type Description Required Default
client_secret object Chiave temporanea restituita dall'API. Presente solo quando la sessione viene creata nel server tramite l'API REST.
Yes
└─ expires_at integer Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto.
No
└─ value string Chiave temporanea utilizzabile negli ambienti client per autenticare le connessioni all'API realtime. Usare questa opzione negli ambienti lato client anziché in un token API standard, che deve essere usato solo sul lato server.
No
input_audio_format string Formato dell'audio di input. Le opzioni sono pcm16, g711_ulawo g711_alaw.
No
input_audio_transcription object Configurazione del modello di trascrizione.
No
└─ language string Lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
No
└─ model enum Modello da usare per la trascrizione. Può essere gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15o whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve corrispondere alla lingua audio.
No
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
No
turn_detection object Configurazione per il rilevamento dei turni. Può essere impostato su null per disattivare. VaD server significa che il modello rileverà l'inizio e la fine della voce in base al volume audio e risponderà alla fine del parlato dell'utente.
No
└─ prefix_padding_ms integer Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
No
└─ silence_duration_ms integer Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi il modello risponderà più rapidamente, ma può passare a brevi pause dall'utente.
No
└─ threshold number Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
No
└─ type string Il tipo di rilevamento dei turni è attualmente supportato solo server_vad .
No

Reasoning

Opzioni di configurazione per i modelli di ragionamento.

Name Type Description Required Default
effort ReasoningEffort Vincola lo sforzo sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.
Yes medium
summary enum Riepilogo del ragionamento eseguito dal modello. Ciò può essere utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno di concise o detailed.

Valori possibili: concise, detailed
No

ReasoningItem

Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta.

Name Type Description Required Default
content array Ragionamento del contenuto del testo.
Yes
id string Identificatore univoco del contenuto di ragionamento.
Yes
status enum Stato dell'elemento. Uno di in_progress, completedo incomplete. Popolato quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Tipo dell'oggetto. Sempre reasoning.

Valori possibili: reasoning
Yes

Refusal

Rifiuto del modello.

Name Type Description Required Default
refusal string Spiegazione del rifiuto dal modello.
Yes
type enum Tipo di rifiuto. Sempre refusal.

Valori possibili: refusal
Yes

response

Name Type Description Required Default
created_at number Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Yes
error ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta.
Yes
id string Identificatore univoco per questa risposta.
Yes
incomplete_details object Informazioni dettagliate sul motivo per cui la risposta è incompleta.
Yes
└─ reason enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
No
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
Yes
max_output_tokens integer Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
No
metadata Metadata Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Yes
model string Modello usato per generare le risposte. Yes
object enum Tipo di oggetto di questa risorsa: sempre impostato su response.

Valori possibili: response
Yes
output array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono dalla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e presupponendo che si tratti di un assistant messaggio con il contenuto generato dal modello, è consigliabile usare la output_text proprietà in cui è supportato negli SDK.
Yes
output_text string Proprietà utile solo SDK che contiene l'output di testo aggregato di tutti gli output_text elementi della output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
No
parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo.
Yes True
previous_response_id string ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento.
No
status enum Stato della generazione della risposta. Uno di completed, failed, in_progresso incomplete.

Valori possibili: completed, failed, in_progress, incomplete
No
temperature number Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 renderanno l'output più casuale, mentre i valori inferiori come 0,2 lo renderanno più incentrato e deterministico.
In genere è consigliabile modificare questa impostazione o top_p non entrambe.
Yes 1
text object Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more:
- input di testo e output
- Output strutturati
No
└─ format TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito non include { "type": "text" } opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
No
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
Yes
tools array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire il modello sono:

- Strumenti predefiniti
Yes
top_p number Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che comprendono i primi 10% massa di probabilità.

In genere è consigliabile modificare questa impostazione o temperature non entrambe.
Yes 1
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
No
usage ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.
No
user string Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. .
No

ResponseAudioDeltaEvent

Generato quando è presente una risposta audio parziale.

Name Type Description Required Default
delta string Blocco di byte audio della risposta con codifica Base64.
Yes
type enum Tipo dell'evento. Sempre response.audio.delta.

Valori possibili: response.audio.delta
Yes

ResponseAudioDoneEvent

Generato al termine della risposta audio.

Name Type Description Required Default
type enum Tipo dell'evento. Sempre response.audio.done.

Valori possibili: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Generato quando è presente una trascrizione parziale dell'audio.

Name Type Description Required Default
delta string Trascrizione parziale della risposta audio.
Yes
type enum Tipo dell'evento. Sempre response.audio.transcript.delta.

Valori possibili: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Generato al termine della trascrizione audio completa.

Name Type Description Required Default
type enum Tipo dell'evento. Sempre response.audio.transcript.done.

Valori possibili: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Generato quando viene aggiunto un frammento di codice parziale dall'interprete di codice.

Name Type Description Required Default
delta string Frammento di codice parziale aggiunto dall'interprete di codice.
Yes
output_index integer Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
Yes
type enum Tipo dell'evento. Sempre response.code_interpreter_call.code.delta.

Valori possibili: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Generato quando l'output del frammento di codice viene finalizzato dall'interprete di codice.

Name Type Description Required Default
code string Output del frammento di codice finale dell'interprete di codice.
Yes
output_index integer Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
Yes
type enum Tipo dell'evento. Sempre response.code_interpreter_call.code.done.

Valori possibili: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Generato al termine della chiamata dell'interprete del codice.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
Yes
output_index integer Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
Yes
type enum Tipo dell'evento. Sempre response.code_interpreter_call.completed.

Valori possibili: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Generato quando è in corso una chiamata a un interprete di codice.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
Yes
output_index integer Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
Yes
type enum Tipo dell'evento. Sempre response.code_interpreter_call.in_progress.

Valori possibili: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Generato quando l'interprete di codice interpreta attivamente il frammento di codice.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
Yes
output_index integer Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
Yes
type enum Tipo dell'evento. Sempre response.code_interpreter_call.interpreting.

Valori possibili: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Generato al termine della risposta del modello.

Name Type Description Required Default
response response Yes
type enum Tipo dell'evento. Sempre response.completed.

Valori possibili: response.completed
Yes

ResponseContentPartAddedEvent

Generato quando viene aggiunta una nuova parte di contenuto.

Name Type Description Required Default
content_index integer Indice della parte di contenuto aggiunta.
Yes
item_id string ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
output_index integer Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
part OutputContent Yes
type enum Tipo dell'evento. Sempre response.content_part.added.

Valori possibili: response.content_part.added
Yes

ResponseContentPartDoneEvent

Generato al termine di una parte del contenuto.

Name Type Description Required Default
content_index integer Indice della parte di contenuto eseguita.
Yes
item_id string ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
output_index integer Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
part OutputContent Yes
type enum Tipo dell'evento. Sempre response.content_part.done.

Valori possibili: response.content_part.done
Yes

ResponseCreatedEvent

Evento generato quando viene creata una risposta.

Name Type Description Required Default
response response Yes
type enum Tipo dell'evento. Sempre response.created.

Valori possibili: response.created
Yes

ResponseError

Oggetto di errore restituito quando il modello non riesce a generare una risposta.

Name Type Description Required Default
code ResponseErrorCode Codice di errore per la risposta.
Yes
message string Descrizione leggibile dell'errore.
Yes

ResponseErrorCode

Codice di errore per la risposta.

Property Value
Description Codice di errore per la risposta.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Generato quando si verifica un errore.

Name Type Description Required Default
code string Codice di errore.
Yes
message string Messaggio di errore.
Yes
param string Parametro di errore.
Yes
type enum Tipo dell'evento. Sempre error.

Valori possibili: error
Yes

ResponseFailedEvent

Evento generato quando una risposta ha esito negativo.

Name Type Description Required Default
response response Yes
type enum Tipo dell'evento. Sempre response.failed.

Valori possibili: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Generato quando viene completata una chiamata di ricerca file (risultati trovati).

Name Type Description Required Default
item_id string ID dell'elemento di output avviato dalla chiamata di ricerca file.
Yes
output_index integer Indice dell'elemento di output avviato dalla chiamata di ricerca file.
Yes
type enum Tipo dell'evento. Sempre response.file_search_call.completed.

Valori possibili: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Generato quando viene avviata una chiamata di ricerca file.

Name Type Description Required Default
item_id string ID dell'elemento di output avviato dalla chiamata di ricerca file.
Yes
output_index integer Indice dell'elemento di output avviato dalla chiamata di ricerca file.
Yes
type enum Tipo dell'evento. Sempre response.file_search_call.in_progress.

Valori possibili: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Generato quando una ricerca di file è attualmente in corso di ricerca.

Name Type Description Required Default
item_id string ID dell'elemento di output avviato dalla chiamata di ricerca file.
Yes
output_index integer Indice dell'elemento di output in cui viene eseguita la ricerca della chiamata di ricerca file.
Yes
type enum Tipo dell'evento. Sempre response.file_search_call.searching.

Valori possibili: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Generato quando è presente un delta degli argomenti di chiamata di funzione parziale.

Name Type Description Required Default
delta string Delta degli argomenti di chiamata di funzione aggiunto.
Yes
item_id string ID dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
Yes
output_index integer Indice dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
Yes
type enum Tipo dell'evento. Sempre response.function_call_arguments.delta.

Valori possibili: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Generato quando gli argomenti della chiamata di funzione vengono finalizzati.

Name Type Description Required Default
arguments string Argomenti di chiamata di funzione. Yes
item_id string ID dell'elemento. Yes
output_index integer Indice dell'elemento di output. Yes
type enum
Valori possibili: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Generato quando la risposta è in corso.

Name Type Description Required Default
response response Yes
type enum Tipo dell'evento. Sempre response.in_progress.

Valori possibili: response.in_progress
Yes

ResponseIncompleteEvent

Evento generato al termine di una risposta come incompleto.

Name Type Description Required Default
response response Yes
type enum Tipo dell'evento. Sempre response.incomplete.

Valori possibili: response.incomplete
Yes

responseItemList

Elenco di elementi di risposta.

Name Type Description Required Default
data array Elenco di elementi utilizzati per generare questa risposta. Yes
first_id string ID del primo elemento dell'elenco. Yes
has_more boolean Indica se sono disponibili altri elementi. Yes
last_id string ID dell'ultimo elemento nell'elenco. Yes
object enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list
Yes

ResponseModalities

Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:

["text"]

Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]

Nessuna proprietà definita per questo componente.

ResponseModalitiesTextOnly

Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:

["text"]

Questa API supporterà presto altre modalità di output, tra cui audio e immagini.

Nessuna proprietà definita per questo componente.

ResponseOutputItemAddedEvent

Generato quando viene aggiunto un nuovo elemento di output.

Name Type Description Required Default
item OutputItem Yes
output_index integer Indice dell'elemento di output aggiunto.
Yes
type enum Tipo dell'evento. Sempre response.output_item.added.

Valori possibili: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Generato quando un elemento di output viene contrassegnato come completato.

Name Type Description Required Default
item OutputItem Yes
output_index integer Indice dell'elemento di output contrassegnato come completato.
Yes
type enum Tipo dell'evento. Sempre response.output_item.done.

Valori possibili: response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme previous_response_ida , le istruzioni di una risposta precedente non verranno trasportate alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
No
max_output_tokens integer Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
No
previous_response_id string ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento.
No
text object Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Learn more:
- input di testo e output
- Output strutturati
No
└─ format TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito non include { "type": "text" } opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
No
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
No
tools array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire il modello sono:

- Strumenti predefiniti
No
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
No

ResponseRefusalDeltaEvent

Emesso quando è presente un testo di rifiuto parziale.

Name Type Description Required Default
content_index integer Indice della parte contenuto a cui viene aggiunto il testo di rifiuto.
Yes
delta string Testo di rifiuto aggiunto.
Yes
item_id string ID dell'elemento di output a cui viene aggiunto il testo di rifiuto.
Yes
output_index integer Indice dell'elemento di output a cui viene aggiunto il testo di rifiuto.
Yes
type enum Tipo dell'evento. Sempre response.refusal.delta.

Valori possibili: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Emesso quando il testo del rifiuto viene finalizzato.

Name Type Description Required Default
content_index integer Indice della parte contenuto che il testo di rifiuto viene finalizzato.
Yes
item_id string ID dell'elemento di output che il testo di rifiuto viene finalizzato.
Yes
output_index integer Indice dell'elemento di output che il testo di rifiuto viene finalizzato.
Yes
refusal string Testo di rifiuto finalizzato.
Yes
type enum Tipo dell'evento. Sempre response.refusal.done.

Valori possibili: response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Indice dell'annotazione aggiunta.
Yes
arguments string Argomenti di chiamata di funzione. Yes
code string Codice di errore.
Yes
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
Yes
content_index integer Indice della parte di contenuto che il contenuto del testo è finalizzato.
Yes
delta string Delta del testo aggiunto.
Yes
item OutputItem Elemento di output contrassegnato come completato.
Yes
item_id string ID dell'elemento di output che il contenuto del testo viene finalizzato.
Yes
message string Messaggio di errore.
Yes
output_index integer Indice dell'elemento di output finalizzato al contenuto di testo.
Yes
param string Parametro di errore.
Yes
part OutputContent Parte del contenuto eseguita.
Yes
refusal string Testo di rifiuto finalizzato.
Yes
response response Risposta incompleta.
Yes
text string Contenuto di testo finalizzato.
Yes
type enum Tipo dell'evento. Sempre response.output_text.done.

Valori possibili: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Generato quando viene aggiunta un'annotazione di testo.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Indice dell'annotazione aggiunta.
Yes
content_index integer Indice della parte di contenuto a cui è stata aggiunta l'annotazione del testo.
Yes
item_id string ID dell'elemento di output a cui è stata aggiunta l'annotazione di testo.
Yes
output_index integer Indice dell'elemento di output a cui è stata aggiunta l'annotazione di testo.
Yes
type enum Tipo dell'evento. Sempre response.output_text.annotation.added.

Valori possibili: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Generato quando è presente un delta di testo aggiuntivo.

Name Type Description Required Default
content_index integer Indice della parte di contenuto a cui è stato aggiunto il delta del testo.
Yes
delta string Delta del testo aggiunto.
Yes
item_id string ID dell'elemento di output a cui è stato aggiunto il delta del testo.
Yes
output_index integer Indice dell'elemento di output a cui è stato aggiunto il delta del testo.
Yes
type enum Tipo dell'evento. Sempre response.output_text.delta.

Valori possibili: response.output_text.delta
Yes

ResponseTextDoneEvent

Generato quando viene finalizzato il contenuto di testo.

Name Type Description Required Default
content_index integer Indice della parte di contenuto che il contenuto del testo è finalizzato.
Yes
item_id string ID dell'elemento di output che il contenuto del testo viene finalizzato.
Yes
output_index integer Indice dell'elemento di output finalizzato al contenuto di testo.
Yes
text string Contenuto di testo finalizzato.
Yes
type enum Tipo dell'evento. Sempre response.output_text.done.

Valori possibili: response.output_text.done
Yes

ResponseUsage

Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.

Name Type Description Required Default
input_tokens integer Numero di token di input. Yes
output_tokens integer Numero di token di output. Yes
output_tokens_details object Dettaglio dei token di output. Yes
└─ reasoning_tokens integer Numero di token di ragionamento. No
total_tokens integer Numero totale di token usati. Yes

Screenshot

Azione screenshot.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è sempre impostata su screenshot.

Valori possibili: screenshot
Yes

Scroll

Azione di scorrimento.

Name Type Description Required Default
scroll_x integer Distanza di scorrimento orizzontale.
Yes
scroll_y integer Distanza di scorrimento verticale.
Yes
type enum Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è sempre impostata su scroll.

Valori possibili: scroll
Yes
x integer Coordinata x in cui si è verificato lo scorrimento.
Yes
y integer Coordinata y in cui si è verificato lo scorrimento.
Yes

StopConfiguration

Fino a 4 sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.

Questo componente può essere uno dei seguenti:

TextResponseFormatConfiguration

Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che assicurano che il modello corrisponda allo schema JSON fornito.

Il formato predefinito non include { "type": "text" } opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.

Questo componente può essere uno dei seguenti:

TextResponseFormatJsonSchema

Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.

Name Type Description Required Default
description string Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato.
No
name string Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
No
schema ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON. Yes
strict boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output.
Se impostato su true, il modello seguirà sempre lo schema esatto definito nel schema campo. Solo un subset di schema JSON è supportato quando strict è true.
No False
type enum Tipo di formato di risposta definito. Sempre json_schema.
Valori possibili: json_schema
Yes

Tool

Questo componente può essere uno dei seguenti:

ToolChoiceFunction

Usare questa opzione per forzare il modello a chiamare una funzione specifica.

Name Type Description Required Default
name string Nome della funzione da chiamare. Yes
type enum Per la chiamata di funzione, il tipo è sempre function.
Valori possibili: function
Yes

ToolChoiceOptions

Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.

required significa che il modello deve chiamare uno o più strumenti.

Property Value
Description Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.

required significa che il modello deve chiamare uno o più strumenti.
Type string
Values none
auto
required

ToolChoiceTypes

Indica che il modello deve usare uno strumento predefinito per generare una risposta.

Name Type Description Required Default
type enum Tipo di strumento ospitato che deve essere usato dal modello. I valori consentiti sono:
- file_search
- computer_use_preview

Valori possibili: file_search, computer_use_preview
Yes

Type

Azione da digitare nel testo.

Name Type Description Required Default
text string Testo da digitare.
Yes
type enum Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è sempre impostata su type.

Valori possibili: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.
Yes

UrlCitation

Citazione per una risorsa Web usata per generare una risposta del modello.

Name Type Description Required Default
end_index integer Indice dell'ultimo carattere della citazione URL nel messaggio.
Yes
start_index integer Indice del primo carattere della citazione URL nel messaggio.
Yes
title string Titolo della risorsa Web.
Yes
type enum Tipo di citazione URL. Sempre url_citation.

Valori possibili: url_citation
Yes
url string URL della risorsa Web.
Yes

VectorStoreFileAttributes

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.

Nessuna proprietà definita per questo componente.

VectorStoreFileContentResponse

Rappresenta il contenuto analizzato di un file di archivio vettoriale.

Name Type Description Required Default
data array Contenuto analizzato del file. Yes
has_more boolean Indica se sono presenti più pagine di contenuto da recuperare. Yes
next_page string Token per la pagina successiva, se presente. Yes
object enum Tipo di oggetto, che è sempre vector_store.file_content.page
Valori possibili: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters ComparisonFilter o CompoundFilter Filtro da applicare in base agli attributi del file. No
max_num_results integer Numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 inclusi. No 10
query stringa o matrice Stringa di query per una ricerca Yes
ranking_options object Opzioni di classificazione per la ricerca. No
└─ ranker enum Valori possibili: auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Contenuto di testo restituito dalla ricerca. Yes
type enum Tipo di contenuto.
Valori possibili: text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere collegate a un oggetto . Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.
Yes
content array Blocchi di contenuto dal file. Yes
file_id string ID del file dell'archivio vettoriale. Yes
filename string Nome del file dell'archivio vettoriale. Yes
score number Punteggio di somiglianza per il risultato. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array Elenco di elementi dei risultati della ricerca. Yes
has_more boolean Indica se sono presenti più risultati da recuperare. Yes
next_page string Token per la pagina successiva, se presente. Yes
object enum Tipo di oggetto, che è sempre vector_store.search_results.page
Valori possibili: vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Nessuna proprietà definita per questo componente.

Wait

Azione di attesa.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è sempre impostata su wait.

Valori possibili: wait
Yes

ReasoningEffort

Vincola lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.

Property Value
Description Vincola lo sforzo sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono low, mediume high. La riduzione del lavoro di ragionamento può comportare risposte più veloci e un minor numero di token usati per il ragionamento in una risposta.
Type string
Default medium
Values low
medium
high

errorEvent

Si verifica quando si verifica un errore. Ciò può verificarsi a causa di un errore interno del server o di un timeout.

Name Type Description Required Default
data error Yes
event string Yes

Enumerazione evento: ErrorEventEnum

Value Description
error

doneEvent

Si verifica al termine di un flusso.

Name Type Description Required Default
data string Yes
event string Yes

Enumerazione evento: DoneEventEnum

Value Description
done

Enumerazione dati: DoneEventDataEnum

Value Description
[DONE]

Next steps

Informazioni sui modelli e sull'ottimizzazione con l'API REST. Altre informazioni sui modelli sottostanti che alimentano Azure OpenAI.