Condividi tramite


Informazioni di riferimento per l'anteprima dell'API REST dei modelli di Azure OpenAI in Microsoft Foundry (versione classica)

Annotazioni

Questo documento fa riferimento al portale di Microsoft Foundry (versione classica).

🔍Per informazioni sul nuovo portale, vedere la documentazione di Microsoft Foundry (nuova).

Questo articolo fornisce informazioni dettagliate sugli endpoint dell'API REST di inferenza per OpenAI di Azure.

Specifiche API

La gestione e l'interazione con i modelli e le risorse di Azure OpenAI sono suddivisi in tre superfici API principali:

  • Piano di controllo
  • Piano dati - Creazione
  • Piano dati - Inferenza

Ogni specifica/superficie dell'API incapsula un set diverso di funzionalità Azure OpenAI. Ogni API ha un proprio set univoco di versioni API di anteprima e stabili/disponibili a livello generale. Le versioni di anteprima attualmente tendono a seguire una cadenza mensile.

Importante

È ora disponibile una nuova API di inferenza di anteprima. Per altre informazioni, vedere la guida al ciclo di vita dell'API.

API Ultima versione di anteprima Ultima versione disponibile a livello generale Specifications Descrzione
Piano di controllo 2025-07-01-preview 2025-06-01 File di specifiche L'API del piano di controllo viene usata per operazioni come la creazione di risorse, la distribuzione del modello e altre attività di gestione delle risorse di livello superiore. Il piano di controllo gestisce anche le operazioni possibili con funzionalità come Azure Resource Manager, Bicep, Terraform e l'interfaccia della riga di comando di Azure.
Piano dati v1 preview v1 File di specifiche L'API del piano dati controlla le operazioni di inferenza e creazione.

Authentication

OpenAI di Azure fornisce due metodi di autenticazione. È possibile usare chiavi API o Microsoft Entra ID.

  • Autenticazione con chiave API: per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione api-key HTTP. La guida introduttiva fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.

  • Autenticazione dell'ID Microsoft Entra: è possibile autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione vengono inclusi in una richiesta come intestazione Authorization. Il token specificato deve essere preceduto da Bearer, ad esempio: Bearer YOUR_AUTH_TOKEN. È possibile leggere la guida pratica sull'autenticazione con Microsoft Entra ID.

Controllo delle versioni dell'API REST

Le API del servizio sono sottoposte al controllo delle versioni usando il parametro di query api-version. Tutte le versioni seguono la struttura di data AAAA-MM-GG. Per esempio:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenza del piano dati

Il resto dell'articolo illustra la versione di anteprima 2025-04-01-preview della specifica di inferenza del piano dati Azure OpenAI.

Se stai cercando la documentazione sulla versione più recente dell'API GA, fare riferimento all'API di inferenza del piano dati GA più recente.

Completamenti - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
il meglio di numero intero Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.

Se usato con n, best_of controlla il numero di completamenti candidati e n specifica quanti restituire – best_of deve essere maggiore di n.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
echo boolean Eco di ritorno del prompt oltre al completamento NO Falso
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L’effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.

Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>.
NO None
logprobs numero intero Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituisce un elenco dei 5 token più probabili. L'API restituirà sempre il valore logprob del token campionato, quindi nella risposta potrebbero essere presenti fino a logprobs+1 elementi.

Il valore massimo per logprobs è 5.
NO None
numero massimo di token numero intero Numero massimo di token generabili nel completamento.

Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello.
NO 16
n numero intero Il numero di completamenti da generare per ogni richiesta.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. NO 0
prompt stringa o matrice Richiesta per generare completamenti per matrici codificate come stringhe, matrici di stringhe, matrici di token o matrici di matrici di token.

Si noti che <|endoftext|> è il separatore di documento che il modello vede durante l'addestramento, quindi se una richiesta non viene specificata, il modello genera come se fosse dall'inizio di un nuovo documento.
seed numero intero Se specificato, il nostro sistema effettua un tentativo ottimale per campionare in modo deterministico, affinché richieste ripetute con lo stesso seed e parametri restituiscano lo stesso risultato.

Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermare stringa o matrice Fino a quattro sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. NO
torrente boolean Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token vengono inviati come eventi di soli dati inviati dal server man mano che diventano disponibili, con il flusso che termina con un messaggio data: [DONE]. Codice Python di esempio.
NO Falso
suffix corda Suffisso che segue un completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
NO None
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre i valori inferiori come 0,2 rendono l'output più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso.
NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json createCompletionResponse

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

Esempi

Example

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporamenti - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da algoritmi e modelli di apprendimento automatico.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda ID di distribuzione del modello distribuito.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
dimensions numero intero Numero di dimensioni che devono essere presenti negli incorporamenti di output risultanti. Supportato solo in text-embedding-3 e modelli successivi. NO
encoding_format corda Formato in cui restituire gli incorporamenti. Può essere float o base64. Il valore predefinito è float. NO
ingresso stringa o matrice Testo di input da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passare un array di stringhe o una matrice di array di token. L’input non deve superare il numero massimo di token di input per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni uguali o inferiori a 2.048.
input_type corda tipo di input della ricerca di incorporamento da usare NO
utente corda Un identificatore univoco che rappresenta l'utente finale, che consente di monitorare e rilevare usi impropri. NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json oggetto

Esempi

Example

Restituisce gli incorporamenti per un prompt specificato.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Completamenti chat - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Crea un completamento per il messaggio di chat

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
audio oggetto Parametri dell'output audio. Obbligatorio quando viene richiesto l'output audio con modalities: ["audio"]. NO
└* formato enum Specifica il formato audio di output. Deve essere uno di wav, mp3, flacopus, o pcm16.

Valori possibili: wav, mp3flac, , opus,pcm16
NO
└─ voce enum Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, novae shimmer.

Valori possibili: alloy, echofable, onyx, , novashimmer
NO
data_sources array Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
NO
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
function_call string o chatCompletionFunctionCallOption Deprecato e sostituito da tool_choice.

Controlla quale funzione (se presente) viene chiamata dal modello.
none indica che il modello non chiamerà una funzione e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.

none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni.
NO
functions array Deprecato e sostituito da tools.

Un elenco di funzioni per cui il modello può generare input JSON.
NO
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L’effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
NO None
logprobs boolean Indica se restituire o non restituire le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. NO Falso
max_completion_tokens numero intero Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. NO
numero massimo di token numero intero Numero massimo di token che possono essere generati al momento del completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello.
NO
messages array Elenco di messaggi che comprendono la conversazione effettuata finora. Codice Python di esempio.
metadata oggetto Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. NO
modalities ChatCompletionModalities Tipi di output che si desidera vengano generati dal modello per questa richiesta.
La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per far sì che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]
NO
n numero intero Quante opzioni di completamento della chat generare per ogni messaggio di input. Ti verrà addebitato in base al numero di token generati tra tutte le opzioni. Mantenere n come 1 per ridurre al minimo i costi. NO 1
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
stima PredictionContent Configurazione dell'output stimato, che può migliorare notevolmente i tempi di risposta quando gran parte della risposta del modello è nota in anticipo. È più comune quando si rigenera un file con modifiche minime alla maggior parte del contenuto. NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
sforzo di ragionamento enum solo modelli o1

Vincola il lavoro sul ragionamento per i modelli di ragionamento.

I valori attualmente supportati sono low, medium e high. La riduzione del lavoro di ragionamento può tradursi in risposte più veloci e in un minor numero di token usati per il ragionamento in una risposta.
Valori possibili: low, medium, high
NO
formato_risposta ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

L'impostazione di { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati, garantendo che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
seed numero intero Questa funzionalità è in versione beta.
Se specificato, il nostro sistema effettua un tentativo ottimale per campionare in modo deterministico, affinché richieste ripetute con lo stesso seed e parametri restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermare stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token.
NO
store boolean Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di distillazione del modello. NO
torrente boolean Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token vengono inviati come eventi di soli dati inviati dal server mano a mano che diventano disponibili, con il flusso che termina un messaggio data: [DONE]. Codice Python di esempio.
NO Falso
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.
NO None
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre i valori inferiori come 0,2 rendono l'output più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
tool_choice chatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti. NO
strumenti array Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni.
NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso.
NO
user_security_context userSecurityContext Il contesto di protezione utente contiene diversi parametri che descrivono l'applicazione dell'IA stessa e l'utente finale che interagisce con l'applicazione IA. Questi campi sono utili al team delle operazioni per la sicurezza per analizzare e mitigare gli incidenti di sicurezza fornendo un approccio esaustivo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di IA con Microsoft Defender per il cloud. NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json oggetto

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

Esempi

Example

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati di Ricerca di Azure e sull'identità gestita assegnata dal sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati vettoriali dell'immagine di Ricerca di Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati vettoriali di Ricerca di Azure, sul messaggio assistente precedente e sull'identità gestita assegnata dall'utente.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per l'Azure Cosmos DB fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per Mongo DB fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per l’Elasticsearch fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per la risorsa Pinecone fornita.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Trascrizioni - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Trascrive l'audio nella lingua di input.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrzione Obbligatorio Default
model corda ID del modello da usare. Le opzioni sono gpt-4o-transcribe, gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, , whisper-1e gpt-4o-transcribe-diarize.
documento corda L'oggetto file audio da trascrivere.
language corda La lingua dell'audio di input. Fornire il linguaggio di input nel formato ISO-639-1 migliora l'accuratezza e la latenza. NO
prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. La richiesta deve corrispondere alla lingua audio. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0
timestamp_granularities[] array Granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato su verbose_json per usare le granularità del timestamp. Sono supportate entrambe le opzioni seguenti: word o segment. Nota: non esiste una latenza aggiuntiva per i timestamp dei segmenti, ma la generazione di timestamp delle parole comporta una latenza aggiuntiva. NO ['segment']

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json oggetto
text/plain corda Testo trascritto nel formato di output (quando response_format era uno di text, vtt, o srt).

Esempi

Example

Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene il testo trascritto e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduzioni - Creare

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Trascrive e converte l'audio di input in testo in inglese.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrzione Obbligatorio Default
documento corda Il file audio da convertire.
prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json oggetto
text/plain corda Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt).

Esempi

Example

Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene il testo trascritto in lingua inglese e i metadati associati dai dati dell'audio parlato forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Riconoscimento vocale - Creazione

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Genera audio dal testo di input.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrzione Obbligatorio Default
ingresso corda Testo per cui sintetizzare l'audio. La lunghezza massima è di 4,096 caratteri.
formato_risposta enum Formato in cui sintetizzare l'audio.
Valori possibili: mp3, opusaac, flac, , wavpcm
NO
speed numero Velocità dell'audio sintetizzato. Selezionare un valore tra 0.25 e 4.0. 1.0 è l'impostazione predefinita. NO 1.0
voice enum Voce da usare per la sintesi vocale.
Valori possibili: alloy, echofable, onyx, , novashimmer

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/octet-stream corda

Esempi

Example

Sintetizza l'audio dal testo fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Risposte: Codice di stato: 200

{
  "body": "101010101"
}

Generazioni di immagini - Crea

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Genera una serie di immagini da una descrizione testuale su un specifico modello della serie DALL-E o gpt-image-1

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
sfondo imageBackground Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. NO auto
n numero intero Numero di immagini da generare. Per dall-e-3, è supportato solo n=1. NO 1
Compressione dell'output numero intero Livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1 con il formato di output jpeg. NO 100
formato_di_output imagesOutputFormat Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. NO png
prompt corda Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri per la serie gpt-image-1 e 4000 caratteri per dall-e-3
immagini parziali numero intero Numero di immagini parziali da generare. Questo parametro viene usato per le risposte di streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Se impostato su 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generato il numero completo di immagini parziali se l'immagine completa viene generata più rapidamente. 0
torrente boolean Modificare l'immagine in modalità streaming. no false
qualità imageQuality La qualità dell'immagine che verrà generata. NO auto
formato_risposta imagesResponseFormat Formato in cui vengono restituite le immagini generate. Questo parametro non è supportato per gpt-image-1i modelli di serie che restituiranno sempre immagini con codifica Base64.
Valori possibili: url, b64_json.
NO URL.
size imageSize Dimensioni delle immagini generate. NO auto
style imageStyle Stile delle immagini generate. Supportato solo per DALL-E-3. NO vivid
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. NO

Responses

Codice di stato: 200

Descrizione: Ok

Tipo di contenuto Tipo Descrizione
application/json generateImagesResponse

Codice di stato: impostazione predefinita

Descrizione: si è verificato un errore.

Tipo di contenuto Tipo Descrizione
application/json dalleErrorResponse

Esempi

Example

Crea immagini in base a un prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Risposte: Codice di stato: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Generazioni di immagini - Modifica

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Modifica un'immagine a partire dalla didascalia testuale in una determinata distribuzione del modello gpt-image-1

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
deployment-id path corda
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrzione Obbligatorio Default
image stringa o matrice Immagini da modificare. Deve essere un file di immagine supportato o una matrice di immagini. Ogni immagine deve essere un file png o jpg inferiore a 50 MB.
fedeltà dell'input corda Controllare quanto sforzo il modello eserciterà per corrispondere allo stile e alle caratteristiche, in particolare quelle facciali, delle immagini di ingresso. Questo parametro è supportato solo per i modelli di serie gpt-image-1. Supporta high e low. no low.
mask corda Immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indicano dove deve essere modificata l'immagine. Se sono disponibili più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, minore di 4 MB e avere le stesse dimensioni dell'immagine. NO
n numero intero Numero di immagini da generare. Deve essere compreso tra 1 e 10. NO 1
prompt corda Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri.
qualità imageQuality La qualità dell'immagine che verrà generata. NO auto
immagini parziali Numero di immagini parziali da generare. Questo parametro viene usato per le risposte di streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Se impostato su 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generato il numero completo di immagini parziali se l'immagine completa viene generata più rapidamente.
torrente boolean Modificare l'immagine in modalità streaming. no false
formato_risposta imagesResponseFormat Formato in cui vengono restituite le immagini generate. NO URL.
size imageSize Dimensioni delle immagini generate. NO auto
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. NO

Responses

Codice di stato: 200

Descrizione: Ok

Tipo di contenuto Tipo Descrizione
application/json generateImagesResponse

Codice di stato: impostazione predefinita

Descrizione: si è verificato un errore.

Tipo di contenuto Tipo Descrizione
application/json dalleErrorResponse

Elenco - Assistenti

Annotazioni

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Ulteriori informazioni.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Restituisce un elenco di assistenti.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listAssistantsResponse

Esempi

Example

Restituisce un elenco di assistenti.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Creare - Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Creare un assistente con un modello e istruzioni.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
NO
instructions corda Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda
nome corda Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri.
NO
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
└ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval o function.
NO []
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json assistantObject

Esempi

Example

Creare un assistente con un modello e istruzioni.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Ottieni - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Recupera un assistente.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
assistant_id path corda ID dell'assistente da recuperare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json assistantObject

Esempi

Example

Recupera un assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modica - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica un assistente.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
assistant_id path corda ID dell'assistente da modificare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
NO
instructions corda Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda NO
nome corda Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri.
NO
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Sovrascrive l’elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array Sovrascrive l’archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval o function.
NO []
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json assistantObject

Esempi

Example

Modifica un assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Elimina - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Elimina un assistente.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
assistant_id path corda ID dell'assistente da eliminare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json deleteAssistantResponse

Esempi

Example

Elimina un assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Crea - Thread

Annotazioni

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Ulteriori informazioni.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Crea un thread.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
messages array Elenco di messaggi con cui avviare il thread. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
tool_resources oggetto Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO
└ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json threadObject

Esempi

Example

Crea un thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Ottieni - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera un thread.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread da recuperare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json threadObject

Esempi

Example

Recupera un thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifica - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica un thread.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread da modificare. È possibile modificare solo l'oggetto metadata .
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
tool_resources oggetto Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json threadObject

Esempi

Example

Modifica un thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Elimina - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Elimina un thread.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread da eliminare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json deleteThreadResponse

Esempi

Example

Elimina un thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Elenca - Messaggi

Annotazioni

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Ulteriori informazioni.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Restituisce un elenco di messaggi per un determinato thread.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID dei thread a cui appartengono i messaggi.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
run_id query NO corda Filtrare i messaggi per ID esecuzione che li ha generati.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listMessagesResponse

Esempi

Example

Elenca messaggi

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Crea - Messaggio

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Creare un messaggio.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID dei thread per cui creare un messaggio.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
attachments array Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. NO
contenuto corda Il contenuto del messaggio.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
ruolo corda Ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.
- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione.

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json messageObject

Esempi

Example

Creare un messaggio.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Ottieni - Messaggio

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recupera un messaggio.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID dei thread a cui appartiene il messaggio.
message_id path corda ID del messaggio da recuperare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json messageObject

Esempi

Example

Recupera un messaggio.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifica - Messaggio

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica un messaggio.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread a cui appartiene il messaggio.
message_id path corda ID del messaggio da modificare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json messageObject

Esempi

Example

Modificare un messaggio.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Crea - Thread ed esecuzione

Annotazioni

L'API Assistants è deprecata e verrà ritirata il 26 agosto 2026. Usare il servizio Microsoft Foundry Agents disponibile a livello generale. Seguire la guida alla migrazione per aggiornare i carichi di lavoro. Ulteriori informazioni.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Creare un thread ed eseguirlo in una richiesta.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
assistant_id corda ID dell'assistente da usare per eseguire questa esecuzione.
instructions corda Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
max_completion_tokens numero intero Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di completamento specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
max_prompt_tokens numero intero Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di richiesta specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda ID dei modelli da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. NO
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
torrente boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE].
NO
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.
NO None
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
thread createThreadRequest NO
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento.
NO
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runObject

Esempi

Example

Creare un thread ed eseguirlo in una richiesta.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Elenca - Esecuzioni

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Restituisce un elenco di esecuzioni che appartengono a un thread.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread a cui appartiene l'esecuzione.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listRunsResponse

Esempi

Example

Restituisce un elenco di esecuzioni che appartengono a un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Crea - Esecuzione

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Creare un’esecuzione.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread da eseguire.
include[] query NO array Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
additional_instructions corda Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. NO
additional_messages array Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. NO
assistant_id corda ID dell'assistente da usare per eseguire questa esecuzione.
instructions corda Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
max_completion_tokens numero intero Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di completamento specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
max_prompt_tokens numero intero Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di richiesta specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. NO
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
torrente boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE].
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà nessuno strumento e genererà invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento.
NO
strumenti array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runObject

Esempi

Example

Creare un’esecuzione.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Ottieni - Esecuzione

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera un’esecuzione.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID dei thread eseguiti.
run_id path corda ID dell'esecuzione da recuperare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runObject

Esempi

Example

Ottiene un’esecuzione.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifica - Esecuzione

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica un’esecuzione.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID dei thread eseguiti.
run_id path corda ID dell'esecuzione da modificare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runObject

Esempi

Example

Modifica un’esecuzione.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Invia - Strumento invia gli output all’esecuzione

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando un’esecuzione ha il status: "requires_action" e required_action.type è submit_tool_outputs, è possibile utilizzare questo endpoint per inviare gli output dalle chiamate dello strumento una volta che sono state tutte completate. Tutti gli output devono essere inviati in una singola richiesta.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID dei thread a cui appartiene questa esecuzione.
run_id path corda ID dell'esecuzione che richiede l'invio dell'output dello strumento.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
torrente boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE].
NO
tool_outputs array Un elenco degli strumenti per i quali vengono inviati gli output.

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runObject

Esempi

Example

Quando un’esecuzione ha il status: "requires_action" e required_action.type è submit_tool_outputs, è possibile utilizzare questo endpoint per inviare gli output dalle chiamate dello strumento una volta che sono state tutte completate. Tutti gli output devono essere inviati in una singola richiesta.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annulla - Esecuzione

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Annulla un'esecuzione in_progress.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread a cui appartiene questa esecuzione.
run_id path corda ID dell'esecuzione da annullare.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runObject

Esempi

Example

Annulla un'esecuzione in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Elenca - Passaggi esecuzione

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Restituisce un elenco di esecuzioni che appartengono a un’esecuzione.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread a cui appartengono l'esecuzione e i passaggi di esecuzione.
run_id path corda ID dell'esecuzione a cui appartengono i passaggi di esecuzione.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
versione-api query corda
include[] query NO array Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listRunStepsResponse

Esempi

Example

Restituisce un elenco di esecuzioni che appartengono a un’esecuzione.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Ottieni - Passaggio esecuzione

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera un passaggio dell’esecuzione.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
thread_id path corda ID del thread a cui appartengono l'esecuzione e il passaggio dell'esecuzione.
run_id path corda ID dell'esecuzione a cui appartiene il passaggio dell'esecuzione.
step_id path corda ID del passaggio dell'esecuzione da recuperare.
include[] query NO array Elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato consiste step_details.tool_calls[*].file_search.results[*].content nel recuperare il contenuto dei risultati della ricerca file.
versione-api query corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json runStepObject

Esempi

Example

Recupera un passaggio dell’esecuzione.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Elenca - Archivi vettoriali

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Restituisce un elenco di archivi vettoriali.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listVectorStoresResponse

Esempi

Example

Restituisce un elenco di archivi vettoriali.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Crea - Archivio vettoriale

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Crea un archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. Applicabile solo se file_ids non è vuoto. NO
scade dopo vectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreObject

Esempi

Example

Crea un archivio vettoriale.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Ottieni - Archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera un archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale da recuperare.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreObject

Esempi

Example

Recupera un archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifica - Archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica un archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale da modificare.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
scade dopo vectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreObject

Esempi

Example

Modifica un archivio vettoriale.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Elimina - Archivio vettoriale

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Elimina un archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale da eliminare.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json deleteVectorStoreResponse

Esempi

Example

Elimina un archivio di vettori.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Elenca - File dell’archivio di vettori

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Restituisce un elenco di file dell’archivio di vettori.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartengono i file.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
filtro query NO corda
Valori possibili: in_progress, completed, failed, cancelled
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listVectorStoreFilesResponse

Esempi

Example

Restituisce un elenco di file dell’archivio di vettori.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Crea - File archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale per il quale creare un file.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
ID del file corda Un ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreFileObject

Esempi

Example

Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Ottieni - File dell’archivio di vettori

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera un file dell’archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il file.
ID del file path corda ID del file da recuperare.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreFileObject

Esempi

Example

Recupera un file dell’archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Elimina - File archivio vettoriale

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Elimina un file dell’archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale ma senza venire eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il file.
ID del file path corda ID del file da eliminare.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json deleteVectorStoreFileResponse

Esempi

Example

Elimina un file dell’archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale ma senza venire eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Aggiornare gli attributi di un file dell'archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il file.
ID del file path corda ID del file per aggiornare gli attributi.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreFileObject

Recuperare il contenuto del file dell'archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recuperare il contenuto analizzato di un file di archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale.
ID del file path corda ID del file all'interno dell'archivio vettoriale.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json VectorStoreFileContentResponse

Archivio dei vettori di ricerca

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Cercare i blocchi pertinenti in un archivio vettoriale utilizzando un filtro basato sulla query e sugli attributi del file.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale da cercare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
filters ComparisonFilter o CompoundFilter Filtro da applicare in base agli attributi del file. NO
max_num_risultati numero intero Il numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 (estremi inclusi). NO 10
query stringa o matrice Stringa di interrogazione per una ricerca
opzioni_di_classifica oggetto Opzioni di classificazione per la ricerca. NO
└* ranker enum
Valori possibili: auto, default-2024-11-15
NO
└─ soglia_punteggio numero NO 0
rewrite_query boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. NO Falso

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json VectorStoreSearchResultsPage

Crea - Batch file archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Crea una batch di file dell’archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale per il quale creare un batch di file.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreFileBatchObject

Esempi

Example

Crea una batch di file dell’archivio vettoriale.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Risposte: Codice di stato: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Ottieni - Batch file archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera un batch di file dell’archivio vettoriale.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path corda ID del batch di file in fase di recupero.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreFileBatchObject

Esempi

Example

Recupera un batch di file dell’archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annulla - Batch file archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Annulla un batch di file dell’archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path corda ID del lotto di file da annullare.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json vectorStoreFileBatchObject

Esempi

Example

Annulla un batch di file dell’archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Elenca - Batch file archivio vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Restituisce un elenco di file dell’archivio di vettori in un batch.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartengono i file.
batch_id path corda ID del batch di file a cui appartengono i file.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco. Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, a partire da obj_foo, la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
filtro query NO corda
Valori possibili: in_progress, completed, failed, cancelled
Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.
versione-api query corda versione api

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json listVectorStoreFilesResponse

Esempi

Example

Restituisce un elenco di file dell’archivio di vettori.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Crea - Sessione in tempo reale

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime. Può essere configurato con gli stessi parametri di sessione dell'evento session.update client. Risponde con un oggetto sessione, oltre a una client_secret chiave che contiene un token API temporaneo utilizzabile che può essere usato per autenticare i client del browser per l'API Realtime.

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
input_audio_format enum Formato dell'audio di input. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento di 24 kHz, un singolo canale (mono) e un ordine dei byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
NO
input_audio_noise_reduction oggetto Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento dei turni e dell'attività vocale (VAD), riducendo i falsi positivi, e le prestazioni del modello migliorando la percezione dell'audio di input.
NO
└─ Tipo enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
NO
input_audio_transcription oggetto Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivarla una volta attivata. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite l'endpoint Trascrizioni e deve essere considerata come una guida per il contenuto audio di input, piuttosto che un'indicazione precisa di quello che il modello ha sentito. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
NO
└* lingua corda La lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
NO
└─ Modello corda Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, e .whisper-1
NO
└* prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
NO
instructions corda Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) vengono anteposte alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.

Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
NO
max_response_output_tokens integer o stringa Numero massimo di token di output per una singola risposta dell'assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf.
NO
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
NO
model corda Nome della distribuzione utilizzata per questa sessione.
NO
output_audio_format enum Formato dell'audio di output. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
Per pcm16, l'audio di output viene campionato a una velocità di 24 kHz.

Valori possibili: pcm16, g711_ulaw, g711_alaw
NO
temperatura numero Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Per i modelli audio una temperatura di 0,8 è altamente consigliata per ottenere prestazioni ottimali.
NO 0.8
tool_choice corda Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione.
NO auto
strumenti array Strumenti (funzioni) disponibili per il modello. NO
turn_detection oggetto Configurazione per il rilevamento dei turni, VAD server o VAD semantico. Può essere impostato su null per disattivare, nel qual caso il cliente deve attivare manualmente la risposta del modello.
La VAD server indica che il modello rileverà l'inizio e la fine del parlato in base al volume audio e che risponderà quando l'utente smette di parlare.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello assegnerà un punteggio a una bassa probabilità di fine turno e attenderà più a lungo affinché l'utente possa continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
NO
└create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD.
NO Vero
└─ impazienza enum Usato solo per modalità semantic_vad. Impazienza di rispondere da parte del modello. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
NO
└interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con un output per la conversazione predefinita (ad esempio conversation di auto) quando si verifica un evento di avvio VAD.
NO Vero
└prefix_padding_ms numero intero Usato solo per modalità server_vad. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
NO
└durata_silenzio_ms numero intero Usato solo per modalità server_vad. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi, il modello risponderà più rapidamente, ma potrebbe attivarsi durante le brevi pause dell'utente.
NO
└* soglia numero Usato solo per modalità server_vad. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
NO
└─ Tipo enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
NO
voice VoiceIdsShared NO

Responses

Codice di stato: 200

Descrizione: sessione creata correttamente.

Tipo di contenuto Tipo Descrizione
application/json RealtimeSessionCreateResponse

Crea - Trascrizione sessione in tempo reale

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Creare un token API temporaneo da usare nelle applicazioni lato client con l'API Realtime specificamente per le trascrizioni in tempo reale. Può essere configurato con gli stessi parametri di sessione dell'evento transcription_session.update client. Risponde con un oggetto sessione, oltre a una client_secret chiave che contiene un token API temporaneo utilizzabile che può essere usato per autenticare i client del browser per l'API Realtime.

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
includi array Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono:
- item.input_audio_transcription.logprobs
NO
input_audio_format enum Formato dell'audio di input. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento di 24 kHz, un singolo canale (mono) e un ordine dei byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
NO
input_audio_noise_reduction oggetto Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento dei turni e dell'attività vocale (VAD), riducendo i falsi positivi, e le prestazioni del modello migliorando la percezione dell'audio di input.
NO
└─ Tipo enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
NO
input_audio_transcription oggetto Configurazione della trascrizione dell'audio di input. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
NO
└* lingua corda La lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
NO
└─ Modello enum Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
NO
└* prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
NO
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
NO
turn_detection oggetto Configurazione per il rilevamento dei turni, VAD server o VAD semantico. Può essere impostato su null per disattivare, nel qual caso il cliente deve attivare manualmente la risposta del modello.
La VAD server indica che il modello rileverà l'inizio e la fine del parlato in base al volume audio e che risponderà quando l'utente smette di parlare.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello assegnerà un punteggio a una bassa probabilità di fine turno e attenderà più a lungo affinché l'utente possa continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
NO
└create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. Non disponibile per le sessioni di trascrizione.
NO Vero
└─ impazienza enum Usato solo per modalità semantic_vad. Impazienza di rispondere da parte del modello. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
NO
└interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con un output per la conversazione predefinita (ad esempio conversation di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione.
NO Vero
└prefix_padding_ms numero intero Usato solo per modalità server_vad. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
NO
└durata_silenzio_ms numero intero Usato solo per modalità server_vad. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi, il modello risponderà più rapidamente, ma potrebbe attivarsi durante le brevi pause dell'utente.
NO
└* soglia numero Usato solo per modalità server_vad. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
NO
└─ Tipo enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
NO

Responses

Codice di stato: 200

Descrizione: sessione creata correttamente.

Tipo di contenuto Tipo Descrizione
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Crea una risposta del modello.

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
includi array NO
ingresso stringa o matrice Dati di ingresso del modello
instructions corda Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
NO
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
NO
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo.
NO Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. Altre informazioni sullo stato della conversazione.
NO
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento. NO
store boolean Indica se archiviare la risposta del modello generata per il recupero successivo tramite API.
NO Vero
torrente boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server.
Per altre informazioni, vedere la sezione Streaming di seguito.
NO Falso
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Ulteriori informazioni:
- Input e output testuali
- Output strutturati
NO
└* formato TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
NO
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
Funzionalità del modello
NO
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
NO

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json response
text/event-stream responseStreamEvent

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

API delle Risposte - Elementi di Input

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera una risposta del modello con l'ID specificato.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
response_id path corda ID della risposta da recuperare.
includi query NO array Campi aggiuntivi da includere nella risposta. Per altre informazioni, vedere il include parametro per la creazione della risposta precedente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json response

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

Eliminare la risposta

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Elimina una risposta del modello con l'ID specificato.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
response_id path corda ID della risposta da eliminare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Codice di stato: 404

Descrizione: Non trovato

Tipo di contenuto Tipo Descrizione
application/json error

Codice di stato: impostazione predefinita

Descrizione: Servizio non disponibile

Tipo di contenuto Tipo Descrizione
application/json errorResponse

API Risposte - Elenco di elementi di risposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Restituisce un elenco di elementi di input per una determinata risposta.

Parametri dell'URI

Nome In Obbligatorio TIPO Descrzione
endpoint path URL stringa Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
response_id path corda ID della risposta per cui recuperare gli elementi di input.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordine in cui restituire gli elementi di input. Il valore predefinito è asc.
- asc: restituisce gli elementi di input in ordine crescente.
- desc: restituisce gli elementi di input in ordine decrescente.
dopo query NO corda Un ID elemento da cui elencare gli elementi successivi, utilizzato nella paginazione.
before query NO corda ID elemento da elencare prima, utilizzato nella paginazione.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: OK

Tipo di contenuto Tipo Descrizione
application/json responseItemList

Components

errorResponse

Nome TIPO Descrzione Obbligatorio Default
Errore error NO

errorBase

Nome TIPO Descrzione Obbligatorio Default
codice corda NO
message corda NO

Errore

Nome TIPO Descrzione Obbligatorio Default
inner_error innerError Errore interno con dettagli aggiuntivi. NO
param corda NO
type corda NO

innerError

Errore interno con dettagli aggiuntivi.

Nome TIPO Descrzione Obbligatorio Default
codice innerErrorCode Codici di errore per l'oggetto errore interno. NO
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO

innerErrorCode

Codici di errore per l'oggetto errore interno.

Proprietà Value
Descrizione Codici di errore per l'oggetto errore interno.
Tipo corda
Valori ResponsibleAIPolicyViolation

dalleErrorResponse

Nome TIPO Descrzione Obbligatorio Default
Errore dalleError NO

dalleError

Nome TIPO Descrzione Obbligatorio Default
inner_error dalleInnerError Errore interno con dettagli aggiuntivi. NO
param corda NO
type corda NO

dalleInnerError

Errore interno con dettagli aggiuntivi.

Nome TIPO Descrzione Obbligatorio Default
codice innerErrorCode Codici di errore per l'oggetto errore interno. NO
content_filter_results dalleFilterResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO
testo_rivisto corda Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. NO

contentFilterCompletionTextSpan

Descrive un intervallo all'interno del testo di completamento generato. Offset 0 è il primo punto di codice UTF32 del testo di completamento.

Nome TIPO Descrzione Obbligatorio Default
completion_end_offset numero intero Offset del primo punto di codice UTF32 escluso dall'intervallo. Questo campo è sempre uguale a completion_start_offset per intervalli vuoti. Questo campo è sempre più grande di completion_start_offset per intervalli non vuoti.
completion_start_offset numero intero Offset del punto di codice UTF32 che inizia l'intervallo.

contentFilterResultBase

Nome TIPO Descrzione Obbligatorio Default
filtered boolean

contentFilterSeverityResult

Nome TIPO Descrzione Obbligatorio Default
filtered boolean
severity corda NO

contentFilterDetectedResult

Nome TIPO Descrzione Obbligatorio Default
detected boolean NO
filtered boolean

contentFilterDetectedWithCitationResult

Nome TIPO Descrzione Obbligatorio Default
citation oggetto NO
└* URL corda NO
└─ licenza corda NO

contentFilterDetectedWithCompletionTextSpansResult

Nome TIPO Descrzione Obbligatorio Default
details array NO

contentFilterIdResult

Nome TIPO Descrzione Obbligatorio Default
filtered boolean
id corda NO

contentFilterResultsBase

Informazioni sui risultati del filtro dei contenuti.

Nome TIPO Descrzione Obbligatorio Default
custom_blocklists contentFilterDetailedResults Risultati del filtraggio dei contenuti con informazioni sugli ID del filtro dei contenuti per i segmenti filtrati. NO
Errore errorBase NO
hate contentFilterSeverityResult NO
profanity contentFilterDetectedResult NO
self_harm contentFilterSeverityResult NO
sexual contentFilterSeverityResult NO
violence contentFilterSeverityResult NO

contentFilterPromptResults

Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.

Nome TIPO Descrzione Obbligatorio Default
custom_blocklists contentFilterDetailedResults Risultati del filtraggio dei contenuti con informazioni sugli ID del filtro dei contenuti per i segmenti filtrati. NO
Errore errorBase NO
hate contentFilterSeverityResult NO
indirect_attack contentFilterDetectedResult NO
jailbreak contentFilterDetectedResult NO
profanity contentFilterDetectedResult NO
self_harm contentFilterSeverityResult NO
sexual contentFilterSeverityResult NO
violence contentFilterSeverityResult NO

contentFilterChoiceResults

Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.

Nome TIPO Descrzione Obbligatorio Default
custom_blocklists contentFilterDetailedResults Risultati del filtraggio dei contenuti con informazioni sugli ID del filtro dei contenuti per i segmenti filtrati. NO
Errore errorBase NO
hate contentFilterSeverityResult NO
profanity contentFilterDetectedResult NO
protected_material_code contentFilterDetectedWithCitationResult NO
protected_material_text contentFilterDetectedResult NO
self_harm contentFilterSeverityResult NO
sexual contentFilterSeverityResult NO
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult NO
violence contentFilterSeverityResult NO

contentFilterDetailedResults

Risultati del filtraggio dei contenuti con informazioni sugli ID del filtro dei contenuti per i segmenti filtrati.

Nome TIPO Descrzione Obbligatorio Default
details array NO
filtered boolean

promptFilterResult

Risultati del filtro dei contenuti per un singolo prompt nella richiesta.

Nome TIPO Descrzione Obbligatorio Default
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO
prompt_index numero intero NO

promptFilterResults

Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi.

Nessuna proprietà definita per questo componente.

dalleContentFilterResults

Informazioni sui risultati del filtro dei contenuti.

Nome TIPO Descrzione Obbligatorio Default
hate contentFilterSeverityResult NO
self_harm contentFilterSeverityResult NO
sexual contentFilterSeverityResult NO
violence contentFilterSeverityResult NO

dalleFilterResults

Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.

Nome TIPO Descrzione Obbligatorio Default
custom_blocklists contentFilterDetailedResults Risultati del filtraggio dei contenuti con informazioni sugli ID del filtro dei contenuti per i segmenti filtrati. NO
hate contentFilterSeverityResult NO
jailbreak contentFilterDetectedResult NO
profanity contentFilterDetectedResult NO
self_harm contentFilterSeverityResult NO
sexual contentFilterSeverityResult NO
violence contentFilterSeverityResult NO

chatCompletionsRequestCommon

Nome TIPO Descrzione Obbligatorio Default
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L’effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. NO
max_completion_tokens numero intero Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. NO
numero massimo di token numero intero Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). Non è compatibile con i modelli della serie o1. NO 4096
metadata oggetto Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. NO 0
fermare stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token. NO
store boolean Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di distillazione del modello. NO
torrente boolean Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token vengono inviati come eventi di soli dati inviati dal server mano a mano che diventano disponibili, con il flusso che termina con un messaggio data: [DONE]. NO Falso
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.
In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di Azure di monitorare e rilevare gli abusi. NO

createCompletionRequest

Nome TIPO Descrzione Obbligatorio Default
il meglio di numero intero Genera completamenti best_of sul lato server e restituisce il valore "migliore" (quello con la probabilità di log più alta per token). I risultati non possono essere trasmessi in streaming.

Se usato con n, best_of controlla il numero di completamenti candidati e n ne specifica il numero da restituire. best_of deve essere maggiore di n.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
echo boolean Eco di ritorno del prompt oltre al completamento
NO Falso
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L’effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.

Ad esempio, è possibile passare {"50256": -100} per impedire la generazione del token <|endoftext|>.
NO None
logprobs numero intero Includere le probabilità di log nei token di output logprobs più probabili, nonché i token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei 5 token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero essere presenti fino a logprobs+1 elementi nella risposta.

Il valore massimo per logprobs è 5.
NO None
numero massimo di token numero intero Numero massimo di token che è possibile generare nel completamento.

Il numero di token della richiesta più max_tokens non può superare la lunghezza del contesto del modello.
NO 16
n numero intero Il numero di completamenti da generare per ogni richiesta.

Nota: Poiché questo parametro genera molti completamenti, può usare rapidamente la quota di token. Farne un uso accurato e assicurarsi di avere impostazioni ragionevoli per max_tokens e stop.
NO 1
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
prompt stringa o matrice Prompt per cui generare completamenti, codificati come stringhe, matrice di stringhe, matrice di token o matrice di matrici token.

Si noti che <|endoftext|> è il separatore di documenti visualizzato dal modello durante il training, quindi se non viene specificato un prompt, il modello genererà come se fosse all'inizio di un nuovo documento.
seed numero intero Se specificato, il nostro sistema effettua un tentativo ottimale per campionare in modo deterministico, affinché richieste ripetute con lo stesso seed e parametri restituiscano lo stesso risultato.

Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermare stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.
NO
torrente boolean Indica se eseguire il flusso di avanzamento parziale. Se impostati, i token vengono inviati come eventi di soli dati inviati dal server man mano che diventano disponibili, con il flusso che termina con un messaggio data: [DONE]. Codice Python di esempio.
NO Falso
suffix corda Suffisso che segue un completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
NO None
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso.
NO

creaRispostaDiCompletamento

Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti risposta trasmessi che non trasmessi condividono la stessa forma (a differenza dell'endpoint della chat).

Nome TIPO Descrzione Obbligatorio Default
choices array L'elenco delle scelte di completamento che il modello ha generato per il prompt di input.
created numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento.
id corda Identificatore univoco per il completamento.
model corda Modello usato per il completamento.
oggetto enum Tipo di oggetto, che è sempre "text_completion"
Valori possibili: text_completion
prompt_filter_results promptFilterResults Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. NO
system_fingerprint corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. NO

createChatCompletionRequest

Nome TIPO Descrzione Obbligatorio Default
audio oggetto Parametri dell'output audio. Obbligatorio quando viene richiesto l'output audio con modalities: ["audio"]. NO
└* formato enum Specifica il formato audio di output. Deve essere uno di wav, mp3, flacopus, o pcm16.

Valori possibili: wav, mp3flac, , opus,pcm16
NO
└─ voce enum Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, novae shimmer.

Valori possibili: alloy, echofable, onyx, , novashimmer
NO
data_sources array Le voci di configurazione per le estensioni chat di Azure OpenAI che le usano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
NO
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga.
NO 0
function_call string o chatCompletionFunctionCallOption Deprecato e sostituito da tool_choice.

Controlla quale funzione (se presente) viene chiamata dal modello.
none indica che il modello non chiamerà una funzione e genererà invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.

none è l'impostazione predefinita quando non sono presenti funzioni. auto è l'impostazione predefinita se sono presenti funzioni.
NO
functions array Deprecato e sostituito da tools.

Un elenco di funzioni per cui il modello può generare input JSON.
NO
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L’effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
NO None
logprobs boolean Indica se restituire o non restituire le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. NO Falso
max_completion_tokens numero intero Limite superiore per il numero di token che possono essere generati per un completamento, inclusi i token di output visibili e i token di ragionamento. NO
numero massimo di token numero intero Numero massimo di token che possono essere generati al momento del completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza del contesto del modello.
NO
messages array Elenco di messaggi che comprendono la conversazione effettuata finora. Codice Python di esempio.
metadata oggetto Tag e valori definiti dallo sviluppatore usati per filtrare i completamenti nel dashboard dei completamenti archiviati. NO
modalities ChatCompletionModalities Tipi di output che si desidera vengano generati dal modello per questa richiesta.
La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per far sì che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]
NO
n numero intero Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. NO 1
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
stima PredictionContent Configurazione dell'output stimato, che può migliorare notevolmente i tempi di risposta quando gran parte della risposta del modello è nota in anticipo. È più comune quando si rigenera un file con modifiche minime alla maggior parte del contenuto. NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti.
NO 0
sforzo di ragionamento enum solo modelli o1

Vincola il lavoro sul ragionamento per i modelli di ragionamento.

I valori attualmente supportati sono low, medium e high. La riduzione del lavoro di ragionamento può tradursi in risposte più veloci e in un minor numero di token usati per il ragionamento in una risposta.
Valori possibili: low, medium, high
NO
formato_risposta ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Oggetto che specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che garantiscono che il modello corrisponda allo schema JSON fornito.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
seed numero intero Questa funzionalità è in versione beta.
Se specificato, il nostro sistema effettua un tentativo ottimale per campionare in modo deterministico, affinché richieste ripetute con lo stesso seed e parametri restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermare stringa o matrice Fino a 4 sequenze in cui l'API smette di generare altri token.
NO
store boolean Indica se archiviare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di valutazione o di distillazione del modello. NO
torrente boolean Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token vengono inviati come eventi di soli dati inviati dal server mano a mano che diventano disponibili, con il flusso che termina un messaggio data: [DONE]. Codice Python di esempio.
NO Falso
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.
NO None
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.

In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
tool_choice chatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti. NO
strumenti array Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni.
NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. logprobs deve essere impostato su true se viene usato questo parametro. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso.
NO
user_security_context userSecurityContext Il contesto di protezione utente contiene diversi parametri che descrivono l'applicazione dell'IA stessa e l'utente finale che interagisce con l'applicazione IA. Questi campi sono utili al team delle operazioni per la sicurezza per analizzare e mitigare gli incidenti di sicurezza fornendo un approccio esaustivo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di IA con Microsoft Defender per il cloud. NO

userSecurityContext

Il contesto di protezione utente contiene diversi parametri che descrivono l'applicazione dell'IA stessa e l'utente finale che interagisce con l'applicazione IA. Questi campi sono utili al team delle operazioni per la sicurezza per analizzare e mitigare gli incidenti di sicurezza fornendo un approccio esaustivo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di IA con Microsoft Defender per il cloud.

Nome TIPO Descrzione Obbligatorio Default
application_name corda Nome dell'applicazione. I dati personali sensibili non devono essere inclusi in questo campo. NO
end_user_id corda Questo identificatore è il Microsoft Entra ID (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di IA generativa. I dati personali sensibili non devono essere inclusi in questo campo. NO
end_user_tenant_id corda ID del tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di IA generativa è multi-tenant. NO
source_ip corda Acquisisce l'indirizzo IP del client originale, accettando sia il formato IPv4 che IPv6. NO

chatCompletionFunctions

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
parameters FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
NO

chatCompletionFunctionCallOption

Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.

Nome TIPO Descrzione Obbligatorio Default
nome corda Nome della funzione da chiamare.

chatCompletionFunctionParameters

I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida/ per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

Nessuna proprietà definita per questo componente.

chatCompletionRequestMessage

Questo componente può essere uno dei seguenti:

ChatCompletionRequestDeveloperMessage

Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, i messaggi developer sostituiscono i messaggi system precedenti.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice Contenuto del messaggio dello sviluppatore.
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso developer.
Valori possibili: developer

chatCompletionRequestSystemMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice Contenuto del messaggio di sistema.
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: system

chatCompletionRequestUserMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice Contenuto del messaggio utente.
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: user

chatCompletionRequestAssistantMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice Contenuto del messaggio dell'assistente. Obbligatorio, a meno che tool_calls o function_call non siano specificati.
NO
function_call oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
└─ Argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. NO
└> nome corda Nome della funzione da chiamare. NO
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
refusal corda Messaggio di rifiuto dell'assistente. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistant
tool_calls chatCompletionMessageToolCalls Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. NO

chatCompletionRequestToolMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice Contenuto del messaggio dello strumento.
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: tool
tool_call_id corda Chiamata dello strumento a cui risponde questo messaggio.

chatCompletionRequestFunctionMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto corda Contenuto del messaggio della funzione.
nome corda Nome della funzione da chiamare.
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function

chatCompletionRequestDeveloperMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestSystemMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestUserMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestAssistantMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestToolMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestMessageContentPartText

Nome TIPO Descrzione Obbligatorio Default
Testo corda Contenuto di testo.
type enum Tipo della parte di contenuto.
Valori possibili: text

chatCompletionRequestMessageContentPartAudio

Nome TIPO Descrzione Obbligatorio Default
input_audio oggetto
└* dati corda Dati audio con codifica Base64. NO
└* formato enum Formato dei dati audio codificati. Attualmente supporta "wav" e "mp3".

Valori possibili: wav, mp3
NO
type enum Tipo della parte di contenuto. Sempre input_audio.
Valori possibili: input_audio

chatCompletionRequestMessageContentPartImage

Nome TIPO Descrzione Obbligatorio Default
image_url oggetto
└─ dettaglio enum Specifica il livello di dettaglio dell'immagine. Per altre informazioni, vedere la Guida alla visione.
Valori possibili: auto, low, high
NO
└─ URL corda URL dell'immagine o dati dell'immagine con codifica base64. NO
type enum Tipo della parte di contenuto.
Valori possibili: image_url

chatCompletionRequestMessageContentPartRefusal

Nome TIPO Descrzione Obbligatorio Default
refusal corda Messaggio di rifiuto generato dal modello.
type enum Tipo della parte di contenuto.
Valori possibili: refusal

Configurazione dell'Estensione Chat di Azure

Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

###Discriminatore per azureChatExtensionConfiguration

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Nome TIPO Descrzione Obbligatorio Default
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

azureChatExtensionType

Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Proprietà Value
Descrizione Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Tipo corda
Valori azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Ricerca di Azure quando viene usata come estensione chat di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
parameters azureSearchChatExtensionParameters I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI. NO
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

azureSearchChatExtensionParameters

I parametri per Ricerca di Azure quando viene usato come estensione chat di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. NO Falso
autenticazione onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataIntegratedVectorizationSource NO
endpoint corda Percorso assoluto dell'endpoint per la risorsa di Ricerca di Azure da usare.
mappatura dei campi opzioni di mappatura dei campi di indice di ricerca Azure Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata. NO
filtro corda Filtro di ricerca. NO
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. NO
include_contexts array Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent. NO
index_name corda Il nome dell'indice da usare come disponibile nella risorsa di Ricerca di Azure a cui si è fatto riferimento.
max_search_queries numero intero Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. NO
tipo di query azureSearchQueryType Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI. NO
configurazione_semantica corda La configurazione semantica aggiuntiva per la query. NO
strictness numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
top_n_documents numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO

azureSearchIndexFieldMappingOptions

Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Ricerca di Azure configurata.

Nome TIPO Descrzione Obbligatorio Default
content_fields array I nomi dei campi di indice che devono essere gestiti come contenuto. NO
content_fields_separator corda Il modello separatore che devono usare i campi di contenuto. NO
filepath_field corda Il nome del campo di indice da usare come percorso file. NO
image_vector_fields array Il nome dei campi che rappresentano i dati del vettore dell’immagine. NO
campo_titolo corda Il nome del campo indice da usare come titolo. NO
url_field corda Nome del campo di indice da usare come URL. NO
campi vettoriali array Nomi dei campi che rappresentano dati vettoriali. NO

azureSearchQueryType

Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.

Proprietà Value
Descrizione Il tipo di query di recupero di Ricerca di Azure che deve essere eseguita quando viene usata come estensione chat di Azure OpenAI.
Tipo corda
Valori simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Azure Cosmos DB quando viene usato come estensione chat di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
parameters azureCosmosDBChatExtensionParameters Parametri da usare quando si configurano estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore. NO
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

azureCosmosDBChatExtensionParameters

Parametri da usare quando si configurano estensioni chat di Azure OpenAI On Your Data mentre si usa Azure Cosmos DB for MongoDB vCore.

Nome TIPO Descrzione Obbligatorio Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. NO Falso
autenticazione onYourDataConnectionStringAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione.
nome_del_contenitore corda Il nome del contenitore della risorsa di Azure Cosmos DB.
database_name corda Il nome del database MongoDB vCore da usare con Azure Cosmos DB.
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource
mappatura dei campi azureCosmosDBFieldMappingOptions Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata.
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. NO
include_contexts array Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent. NO
index_name corda Nome dell'indice MongoDB vCore da usare con Azure Cosmos DB.
max_search_queries numero intero Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. NO
strictness numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
top_n_documents numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO

Opzioni di Mappatura del Campo Azure Cosmos DB

Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Azure Cosmos DB configurata.

Nome TIPO Descrzione Obbligatorio Default
content_fields array I nomi dei campi di indice che devono essere gestiti come contenuto.
content_fields_separator corda Il modello separatore che devono usare i campi di contenuto. NO
filepath_field corda Il nome del campo di indice da usare come percorso file. NO
campo_titolo corda Il nome del campo indice da usare come titolo. NO
url_field corda Nome del campo di indice da usare come URL. NO
campi vettoriali array Nomi dei campi che rappresentano dati vettoriali.

elasticsearchChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Elasticsearch quando viene usata come estensione della chat di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
parameters elasticsearchChatExtensionParameters Parametri da usare quando si configura Elasticsearch® come estensione di chat OpenAI di Azure. NO
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

elasticsearchChatExtensionParameters

Parametri da usare quando si configura Elasticsearch® come estensione di chat OpenAI di Azure.

Nome TIPO Descrzione Obbligatorio Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. NO Falso
autenticazione onYourDataKeyAndKeyIdAuthenticationOptions o onYourDataEncodedApiKeyAuthenticationOptions
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource o onYourDataModelIdVectorizationSource NO
endpoint corda Endpoint di Elasticsearch®.
mappatura dei campi elasticsearchIndexFieldMappingOptions Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Elasticsearch® configurata. NO
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. NO
include_contexts array Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent. NO
index_name corda Nome dell'indice di Elasticsearch®.
max_search_queries numero intero Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. NO
tipo di query elasticsearchQueryType Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat Azure OpenAI. NO
strictness numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
top_n_documents numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO

elasticsearchIndexFieldMappingOptions

Impostazioni facoltative per controllare la modalità di elaborazione dei campi quando si usa una risorsa Elasticsearch® configurata.

Nome TIPO Descrzione Obbligatorio Default
content_fields array I nomi dei campi di indice che devono essere gestiti come contenuto. NO
content_fields_separator corda Il modello separatore che devono usare i campi di contenuto. NO
filepath_field corda Il nome del campo di indice da usare come percorso file. NO
campo_titolo corda Il nome del campo indice da usare come titolo. NO
url_field corda Nome del campo di indice da usare come URL. NO
campi vettoriali array Nomi dei campi che rappresentano dati vettoriali. NO

elasticsearchQueryType

Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat Azure OpenAI.

Proprietà Value
Descrizione Tipo di query di recupero di Elasticsearch® che deve essere eseguita quando viene usata come estensione di chat Azure OpenAI.
Tipo corda
Valori simple
vector

mongoDBChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Mongo DB quando viene usata come estensione della chat di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
parameters mongoDBChatExtensionParameters Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Mongo DB. NO
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

mongoDBChatExtensionParameters

Parametri da usare quando vengono configurate estensioni chat di Azure OpenAI On Your Data mentre si usa Mongo DB.

Nome TIPO Descrzione Obbligatorio Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. NO Falso
app_name corda Nome dell'applicazione Mongo DB.
autenticazione onYourDataUsernameAndPasswordAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usano nome utente e password.
collection_name corda Nome della raccolta Mongo DB.
database_name corda Nome del database Mongo DB.
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource
endpoint corda Nome dell'endpoint del cluster Mongo DB.
mappatura dei campi mongoDBFieldMappingOptions Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Mongo DB configurata.
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. NO
include_contexts array Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent. NO
index_name corda Nome dell'indice MongoDB.
max_search_queries numero intero Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. NO
strictness numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
top_n_documents numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO

mongoDBFieldMappingOptions

Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Mongo DB configurata.

Nome TIPO Descrzione Obbligatorio Default
content_fields array I nomi dei campi di indice che devono essere gestiti come contenuto.
content_fields_separator corda Il modello separatore che devono usare i campi di contenuto. NO
filepath_field corda Il nome del campo di indice da usare come percorso file. NO
campo_titolo corda Il nome del campo indice da usare come titolo. NO
url_field corda Nome del campo di indice da usare come URL. NO
campi vettoriali array Nomi dei campi che rappresentano dati vettoriali.

pineconeChatExtensionConfiguration

Una specifica rappresentazione di opzioni configurabili per Pinecone quando viene usata come estensione della chat di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
parameters pineconeChatExtensionParameters Parametri per la configurazione delle estensioni di chat di Azure OpenAI Pinecone. NO
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione chat di Azure OpenAI. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.

pineconeChatExtensionParameters

Parametri per la configurazione delle estensioni di chat di Azure OpenAI Pinecone.

Nome TIPO Descrzione Obbligatorio Default
allow_partial_result boolean Se specificato come true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutte le query hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo. NO Falso
autenticazione onYourDataApiKeyAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API.
embedding_dependency onYourDataDeploymentNameVectorizationSource I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome distribuzione del modello di incorporamento interno nella stessa risorsa di Azure OpenAI.
environment corda Nome dell'ambiente di Pinecone.
mappatura dei campi pineconeFieldMappingOptions Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Pinecone configurata.
in_scope boolean Indica se le query devono essere limitate all'uso di dati indicizzati. NO
include_contexts array Le proprietà include del contesto di output. Se non specificato, il valore predefinito è citations e intent. NO
index_name corda Nome dell'indice di database Pinecone.
max_search_queries numero intero Il numero massimo di query riscritte deve essere inviato al provider di ricerca per un messaggio utente. Se non è specificato, il sistema deciderà il numero di richieste da inviare. NO
strictness numero intero La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. NO
top_n_documents numero intero Numero massimo di documenti configurato per la funzionalità per la query configurata. NO

pineconeFieldMappingOptions

Impostazioni opzionali per controllare il modo in cui i campi vengono elaborati quando si usa una risorsa di Pinecone configurata.

Nome TIPO Descrzione Obbligatorio Default
content_fields array I nomi dei campi di indice che devono essere gestiti come contenuto.
content_fields_separator corda Il modello separatore che devono usare i campi di contenuto. NO
filepath_field corda Il nome del campo di indice da usare come percorso file. NO
campo_titolo corda Il nome del campo indice da usare come titolo. NO
url_field corda Nome del campo di indice da usare come URL. NO

onYourDataAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data.

Discriminante per onYourDataAuthenticationOptions

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Nome TIPO Descrzione Obbligatorio Default
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataContextProperty

La proprietà di contesto.

Proprietà Value
Descrizione La proprietà di contesto.
Tipo corda
Valori citations
intent
all_retrieved_documents

onYourDataAuthenticationType

I tipi di autenticazione supportati con Azure OpenAI On Your Data.

Proprietà Value
Descrizione I tipi di autenticazione supportati con Azure OpenAI On Your Data.
Tipo corda
Valori api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API.

Nome TIPO Descrzione Obbligatorio Default
chiave corda La chiave API da usare per l’autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataConnectionStringAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una stringa di connessione.

Nome TIPO Descrzione Obbligatorio Default
connection_string corda La stringa di connessione da usare per l'autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataKeyAndKeyIdAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave Elasticsearch e un ID chiave.

Nome TIPO Descrzione Obbligatorio Default
chiave corda La chiave Elasticsearch da usare per l’autenticazione. NO
key_id corda L’ID chiave di Elasticsearch da usare per l’autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataEncodedApiKeyAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa una chiave API codificata con Elasticsearch.

Nome TIPO Descrzione Obbligatorio Default
encoded_api_key corda La chiave API con codifica Elasticsearch da usare per l’autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataAccessTokenAuthenticationOptions

Opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un token di accesso.

Nome TIPO Descrzione Obbligatorio Default
access_token corda Token di accesso da usare per l'autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dal sistema.

Nome TIPO Descrzione Obbligatorio Default
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usa un'identità gestita assegnata dall'utente.

Nome TIPO Descrzione Obbligatorio Default
managed_identity_resource_id corda L'ID risorsa dell'identità gestita assegnata dall'utente da usare per l'autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.

onYourDataUsernameAndPasswordAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si usano nome utente e password.

Nome TIPO Descrzione Obbligatorio Default
parola d’ordine corda La password. da utilizzare per l'autenticazione. NO
type onYourDataAuthenticationType I tipi di autenticazione supportati con Azure OpenAI On Your Data.
username corda Il nome utente da utilizzare per l'autenticazione. NO

onYourDataVectorizationSource

Una rappresentazione astratta di un'origine di vettorizzazione per Azure OpenAI On Your Data con ricerca vettoriale.

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Nome TIPO Descrzione Obbligatorio Default
type onYourDataVectorizationSourceType Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

onYourDataVectorizationSourceType

Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

Proprietà Value
Descrizione Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.
Tipo corda
Valori endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Dettagli di un'origine di vettorizzazione, usata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su una chiamata a un endpoint pubblico Azure OpenAI per gli incorporamenti.

Nome TIPO Descrzione Obbligatorio Default
autenticazione onYourDataApiKeyAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions NO
dimensions numero intero Numero di dimensioni che devono essere presenti negli incorporamenti. Supportato solo in text-embedding-3 e modelli successivi. NO
endpoint corda Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti. Dovrebbe avere il formato https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Il parametro di query api-version non è consentito. NO
type onYourDataVectorizationSourceType Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

onYourDataDeploymentNameVectorizationSource

I dettagli di un'origine di vettorizzazione, usati da Azure OpenAI on Your Data quando si applica la ricerca vettoriale, che si basa su un nome distribuzione del modello di incorporamento interno nella stessa risorsa di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
nome_di_distribuzione corda Specifica il nome della distribuzione del modello da usare per la vettorializzazione. Questa distribuzione del modello deve trovarsi nella stessa risorsa di Azure OpenAI, ma On Your Data userà questa distribuzione del modello tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche in reti private. NO
dimensions numero intero Numero di dimensioni che devono essere presenti negli incorporamenti. Supportato solo in text-embedding-3 e modelli successivi. NO
type onYourDataVectorizationSourceType Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

onYourDataIntegratedVectorizationSource

Rappresenta il vettore integrato definito all'interno della risorsa di ricerca.

Nome TIPO Descrzione Obbligatorio Default
type onYourDataVectorizationSourceType Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

onYourDataModelIdVectorizationSource

Dettagli di un'origine di vettorizzazione, usati da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un ID modello di servizio di ricerca. Attualmente supportato solo da Elasticsearch®.

Nome TIPO Descrzione Obbligatorio Default
model_id corda Specifica l'ID modello da utilizzare per la vettorializzazione. Questo ID modello deve essere definito nel servizio di ricerca. NO
type onYourDataVectorizationSourceType Rappresenta le origini disponibili che Azure OpenAI On Your Data può usare per configurare la vettorizzazione dei dati per l'uso con la ricerca vettoriale.

azureChatExtensionsMessageContext

Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte le estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente.

Nome TIPO Descrzione Obbligatorio Default
all_retrieved_documents array Tutti i documenti recuperati. NO
citations array Ili risultato del recupero dell'origine dati, usato per generare il messaggio dell'assistente nella risposta. NO
intent corda L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo per trasferire il contesto. NO

citation

Informazioni sulla citazione per un messaggio di risposta di completamento chat.

Nome TIPO Descrzione Obbligatorio Default
chunk_id corda L'ID blocco della citazione. NO
contenuto corda Il contenuto della citazione.
percorso del file corda Il percorso del file della citazione. NO
rerank_score numero Punteggio di rerank del documento recuperato. NO
title corda Il titolo della citazione. NO
URL. corda L'URL della citazione. NO

retrievedDocument

Il documento recuperato.

Nome TIPO Descrzione Obbligatorio Default
chunk_id corda L'ID blocco della citazione. NO
contenuto corda Il contenuto della citazione.
data_source_index numero intero Indice dell'origine dati. NO
percorso del file corda Il percorso del file della citazione. NO
filter_reason filterReason Motivo del filtro del documento recuperato. NO
original_search_score numero Punteggio di ricerca originale del documento recuperato. NO
rerank_score numero Punteggio di rerank del documento recuperato. NO
search_queries array Query di ricerca utilizzate per recuperare il documento. NO
title corda Il titolo della citazione. NO
URL. corda L'URL della citazione. NO

filterReason

Motivo del filtro del documento recuperato.

Proprietà Value
Descrizione Motivo del filtro del documento recuperato.
Tipo corda
Valori score
rerank

chatCompletionMessageToolCall

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto Funzione chiamata dal modello.
└─ Argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. NO
└> nome corda Nome della funzione da chiamare. NO
id corda ID della chiamata allo strumento.
type Tipo di chiamata dello strumento Il tipo di chiamata allo strumento, in questo caso function.

toolCallType

Il tipo di chiamata allo strumento, in questo caso function.

Proprietà Value
Descrizione Il tipo di chiamata allo strumento, in questo caso function.
Tipo corda
Valori function

chatCompletionRequestMessageTool

Nome TIPO Descrzione Obbligatorio Default
contenuto corda Contenuto del messaggio. NO
tool_call_id corda Chiamata dello strumento a cui risponde questo messaggio. NO

chatCompletionRequestMessageFunction

Nome TIPO Descrzione Obbligatorio Default
contenuto corda Contenuto del messaggio. NO
nome corda Contenuto del messaggio. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function
NO

createChatCompletionResponse

Rappresenta una risposta di completamento della chat restituita dal modello, in base all'input fornito.

Nome TIPO Descrzione Obbligatorio Default
choices array Elenco di scelte di completamento della chat. Può essere maggiore di uno se n è maggiore di 1.
created numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento della chat.
id corda Identificatore univoco per il completamento della chat.
model corda Modello usato per il completamento della chat.
oggetto enum Il tipo di oggetto, che è sempre chat.completion.
Valori possibili: chat.completion
prompt_filter_results promptFilterResults Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. NO
system_fingerprint corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. NO

createChatCompletionStreamResponse

Rappresenta un blocco trasmesso di una risposta di completamento della chat restituita dal modello, in base all'input fornito.

Nome TIPO Descrzione Obbligatorio Default
choices array Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1.
created numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp.
id corda Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID.
model corda Modello per generare il completamento.
oggetto enum Il tipo di oggetto, che è sempre chat.completion.chunk.
Valori possibili: chat.completion.chunk
system_fingerprint corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.
Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO

chatCompletionStreamResponseDelta

Delta di completamento della chat generato dalle risposte del modello trasmesso.

Nome TIPO Descrzione Obbligatorio Default
contenuto corda Contenuto del messaggio del blocco. NO
function_call oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
└─ Argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. NO
└> nome corda Nome della funzione da chiamare. NO
refusal corda Messaggio di rifiuto generato dal modello. NO
ruolo enum Ruolo dell'autore del messaggio.
Valori possibili: system, user, assistant, tool
NO
tool_calls array NO

chatCompletionMessageToolCallChunk

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto NO
└─ Argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. NO
└> nome corda Nome della funzione da chiamare. NO
id corda ID della chiamata allo strumento. NO
indice numero intero
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function
NO

chatCompletionStreamOptions

Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.

Nome TIPO Descrzione Obbligatorio Default
include_usage boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del messaggio data: [DONE]. Il campo usage di questo blocco mostra le statistiche di utilizzo dei token per l'intera richiesta e il campo choices sarà sempre una matrice vuota. Tutti gli altri blocchi includeranno anche un campo usage, ma con un valore null.
NO

Probabilità logaritmiche della scelta di completamento della chat

Informazioni sulla probabilità di log per la scelta.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Un elenco di token di contenuto del messaggio con informazioni sulla probabilità di log.
refusal array Un elenco di token di rifiuto del messaggio con informazioni sulla probabilità di log. NO

chatCompletionTokenLogprob

Nome TIPO Descrzione Obbligatorio Default
bytes array Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token.
logprob numero La probabilità di log di questo token.
token corda Token.
top_logprobs array Elenco dei token più probabili e della loro probabilità di log, in questa posizione del token. In rari casi, potrebbe venire restituito un numero di top_logprobs inferiore a quelli richiesti.

chatCompletionResponseMessage

Messaggio di completamento della chat generato dal modello.

Nome TIPO Descrzione Obbligatorio Default
audio oggetto Se viene richiesta la modalità di output audio, questo oggetto contiene dati sulla risposta audio del modello. NO
└* dati corda Byte audio con codifica Base64 generati dal modello, nel formato specificato nella richiesta.
NO
└─ scadenza_a numero intero Il timestamp Unix (in secondi) che indica quando questa risposta audio non sarà più accessibile sul server per l'uso nelle conversazioni a più turni.
NO
└* id corda Identificatore univoco per questa risposta audio. NO
└─ trascrizione corda Trascrizione dell'audio generato dal modello. NO
contenuto corda Contenuto del messaggio.
context azureChatExtensionsMessageContext Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte le estensioni chat di Azure OpenAI nella generazione di una risposta di completamento chat corrispondente. Queste informazioni contestuali vengono popolate solo quando si usa una richiesta di Azure OpenAI configurata per l'uso di un'estensione corrispondente. NO
function_call chatCompletionFunctionCall Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
refusal corda Messaggio di rifiuto generato dal modello.
ruolo chatCompletionResponseMessageRole Il ruolo dell'autore del messaggio di risposta.
tool_calls array Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. NO

chatCompletionResponseMessageRole

Il ruolo dell'autore del messaggio di risposta.

Proprietà Value
Descrizione Il ruolo dell'autore del messaggio di risposta.
Tipo corda
Valori assistant

chatCompletionToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento. none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti.

Questo componente può essere uno dei seguenti:

chatCompletionNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto
└> nome corda Nome della funzione da chiamare. NO
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function

ParallelToolCalls

Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento.

Nessuna proprietà definita per questo componente.

PredictionContent

Contenuto di output statico stimato, ad esempio il contenuto di un file di testo che viene rigenerato.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice Contenuto che deve essere confrontato durante la generazione di una risposta del modello. Se i token generati corrispondono a questo contenuto, l'intera risposta del modello può essere restituita molto più rapidamente.
type enum Tipo di contenuto previsto da fornire. Questo tipo attualmente è sempre content.
Valori possibili: content

chatCompletionMessageToolCalls

Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni.

Nessuna proprietà definita per questo componente.

ChatCompletionModalities

Tipi di output che si desidera vengano generati dal modello per questa richiesta. La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per far sì che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]

Nessuna proprietà definita per questo componente.

chatCompletionFunctionCall

Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione.
nome corda Nome della funzione da chiamare.

completionUsage

Statistiche di utilizzo per la richiesta di completamento.

Nome TIPO Descrzione Obbligatorio Default
completion_tokens numero intero Numero di token nel completamento generato.
completion_tokens_details oggetto Scomposizione dei token usati in un completamento. NO
└─ token_di_predizione_accettati numero intero Quando si usano output stimati, il numero di token della previsione che compaiono nel completamento. NO
└audio_tokens numero intero Token dell'input audio generati dal modello. NO
└─ token_di_ragionamento numero intero Token generati dal modello per il ragionamento. NO
└rejected_prediction_tokens numero intero Quando si usano output stimati, il numero di token della previsione che non compaiono nel completamento. Tuttavia, come i token di ragionamento, questi token vengono ancora conteggiati nel totale dei token di completamento ai fini della fatturazione, dell'output e dei limiti della finestra di contesto. NO
prompt_tokens numero intero Numero di token nel prompt.
prompt_tokens_details oggetto Dettagli dei token del prompt. NO
└audio_tokens numero intero Token di input audio presenti nel prompt. NO
└cached_tokens numero intero Numero di token del prompt memorizzati nella cache. NO
total_tokens numero intero Numero totale di token usati nella richiesta (prompt + completamento).

chatCompletionTool

Nome TIPO Descrzione Obbligatorio Default
funzione FunctionObject
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function

ParametriDellaFunzione

I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.

Nessuna proprietà definita per questo componente.

FunctionObject

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
parameters FunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
NO
rigido boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel campo parameters. Solo un subset di schema JSON è supportato quando strict è true. NO Falso

ResponseFormatText

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di formato di risposta definito: text
Valori possibili: text

ResponseFormatJsonObject

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di formato di risposta definito: json_object
Valori possibili: json_object

ResponseFormatJsonSchemaSchema

Schema per il formato di risposta, descritto come oggetto Schema JSON.

Nessuna proprietà definita per questo componente.

ResponseFormatJsonSchema

Nome TIPO Descrzione Obbligatorio Default
json_schema oggetto
└* descrizione corda Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. NO
└> nome corda Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. NO
└─ Schema ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON. NO
└─ rigoroso boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output. Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo schema. Solo un subset di schema JSON è supportato quando strict è true. NO Falso
type enum Tipo di formato di risposta definito: json_schema
Valori possibili: json_schema

chatCompletionChoiceCommon

Nome TIPO Descrzione Obbligatorio Default
finish_reason corda NO
indice numero intero NO

creaRichiestaTraduzione

Richiesta di traduzione.

Nome TIPO Descrzione Obbligatorio Default
documento corda Il file audio da convertire.
prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt deve essere in inglese. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0

risposta audio

Risposta di conversione o trascrizione quando response_format era json

Nome TIPO Descrzione Obbligatorio Default
Testo corda Testo convertito o trascritto.

audioVerboseResponse

Risposta di conversione o trascrizione quando response_format era verbose_json

Nome TIPO Descrzione Obbligatorio Default
duration numero Durata. NO
language corda Lingua. NO
segments array NO
compito corda Tipo di attività audio. NO
Testo corda Testo convertito o trascritto.
words array NO

formato di risposta audio

Definisce il formato dell'output.

Proprietà Value
Descrizione Definisce il formato dell'output.
Tipo corda
Valori json
text
srt
verbose_json
vtt

creaRichiestaTrascrizione

Richiesta di trascrizione.

Nome TIPO Descrzione Obbligatorio Default
documento corda L'oggetto file audio da trascrivere.
language corda La lingua dell'audio di input. Fornire il linguaggio di input nel formato ISO-639-1 migliora l'accuratezza e la latenza. NO
prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. La richiesta deve corrispondere alla lingua audio. NO
formato_risposta audioResponseFormat Definisce il formato dell'output. NO
temperatura numero Temperatura di campionamento, compresa tra 0 e 1. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico. Se impostato su 0, il modello usa la probabilità di log per aumentare automaticamente la temperatura fino a raggiungere determinate soglie. NO 0
timestamp_granularities[] array Granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato su verbose_json per usare le granularità del timestamp. Sono supportate entrambe le opzioni seguenti: word o segment. Nota: non esiste una latenza aggiuntiva per i timestamp dei segmenti, ma la generazione di timestamp delle parole comporta una latenza aggiuntiva. NO ['segment']

audioSegment

Segmento di trascrizione o conversione.

Nome TIPO Descrzione Obbligatorio Default
avg_logprob numero Probabilità media di log. NO
compression_ratio numero Rapporto di compressione. NO
fine numero Offset finale del segmento. NO
id numero intero Identificatore di segmento. NO
no_speech_prob numero Probabilità di 'no speech'. NO
seek numero Offset del segmento. NO
start numero Offset iniziale del segmento. NO
temperatura numero Temperature. NO
Testo corda Testo segmentato. NO
tokens array Token del testo. NO

audioWord

Parola di trascrizione o traduzione.

Nome TIPO Descrzione Obbligatorio Default
fine numero Offset finale della parola. NO
start numero Offset iniziale della parola. NO
word corda Parola NO

createSpeechRequest

Richiesta di riconoscimento vocale.

Nome TIPO Descrzione Obbligatorio Default
ingresso corda Testo per cui sintetizzare l'audio. La lunghezza massima è di 4,096 caratteri.
formato_risposta enum Formato in cui sintetizzare l'audio.
Valori possibili: mp3, opusaac, flac, , wavpcm
NO
speed numero Velocità dell'audio sintetizzato. Selezionare un valore tra 0.25 e 4.0. 1.0 è l'impostazione predefinita. NO 1.0
voice enum Voce da usare per la sintesi vocale.
Valori possibili: alloy, echofable, onyx, , novashimmer

qualità dell'immagine

La qualità dell'immagine che verrà generata.

Proprietà Value
Descrizione La qualità dell'immagine che verrà generata.
Tipo corda
Predefinita auto
Valori auto
high
medium
low
hd
standard

imagesResponseFormat

Formato in cui vengono restituite le immagini generate.

Proprietà Value
Descrizione Formato in cui vengono restituite le immagini generate.
Tipo corda
Predefinita URL.
Valori url
b64_json

imagesOutputFormat

Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie.

Proprietà Value
Descrizione Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1.
Tipo corda
Predefinita png
Valori png
jpeg

imageSize

Dimensioni delle immagini generate.

Proprietà Value
Descrizione Dimensioni delle immagini generate.
Tipo corda
Predefinita auto
Valori auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

stile dell'immagine

Stile delle immagini generate. Supportato solo per DALL-E-3.

Proprietà Value
Descrizione Stile delle immagini generate. Supportato solo per DALL-E-3.
Tipo corda
Predefinita vivid
Valori vivid
natural

imageBackground

Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1.

Proprietà Value
Descrizione Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1.
Tipo corda
Predefinita auto
Valori transparent
opaque
auto

richiestaDiGenerazioneImmagini

Nome TIPO Descrzione Obbligatorio Default
sfondo imageBackground Consente di impostare la trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1. NO auto
n numero intero Numero di immagini da generare. Per dall-e-3, è supportato solo n=1. NO 1
Compressione dell'output numero intero Livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per i modelli di serie gpt-image-1 con il formato di output jpeg. NO 100
formato_di_output imagesOutputFormat Formato di file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie gpt-image-1. NO png
prompt corda Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri per i modelli di serie gpt-image-1 e 4000 caratteri per dall-e-3
qualità imageQuality La qualità dell'immagine che verrà generata. NO auto
formato_risposta imagesResponseFormat Formato in cui vengono restituite le immagini generate. Supportato solo per DALL-E-3. NO URL.
size imageSize Dimensioni delle immagini generate. NO auto
style imageStyle Stile delle immagini generate. Supportato solo per DALL-E-3. NO vivid
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. NO

imageEditsRequest

Nome TIPO Descrzione Obbligatorio Default
image stringa o matrice Immagini da modificare. Deve essere un file di immagine supportato o una matrice di immagini. Ogni immagine deve essere un file png o jpg inferiore a 25 MB.
mask corda Immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indicano dove deve essere modificata l'immagine. Se sono disponibili più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, minore di 4 MB e avere le stesse dimensioni dell'immagine. NO
n numero intero Numero di immagini da generare. NO 1
prompt corda Descrizione testuale delle immagini desiderate. La lunghezza massima è di 32000 caratteri.
qualità imageQuality La qualità dell'immagine che verrà generata. NO auto
formato_risposta imagesResponseFormat Formato in cui vengono restituite le immagini generate. NO URL.
size imageSize Dimensioni delle immagini generate. NO auto
utente corda Identificatore univoco che rappresenta l’utente finale, che consente di monitorare e rilevare un abuso. NO

rispostaGeneraImmagini

Nome TIPO Descrzione Obbligatorio Default
created numero intero Il timestamp unix al momento della creazione dell'operazione.
data array I dati del risultato dell'operazione, se l'operazione riesce
usage imageGenerationsUsage Rappresenta i dettagli di utilizzo dei token per le richieste di generazione di immagini. Solo per i modelli di serie gpt-image-1. NO

imageResult

L'URL dell'immagine o l'immagine codificata in caso di esito positivo e un errore in caso contrario.

Nome TIPO Descrzione Obbligatorio Default
b64_json corda L'immagine con codifica Base64 NO
content_filter_results dalleContentFilterResults Informazioni sui risultati del filtro dei contenuti. NO
prompt_filter_results dalleFilterResults Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. NO
testo_rivisto corda Il prompt che è stato usato per generare l'immagine, se era presente una revisione del prompt. NO
URL. corda L'URL dell'immagine. NO

imageGenerationsUsage

Rappresenta i dettagli di utilizzo dei token per le richieste di generazione di immagini. Solo per i modelli di serie gpt-image-1.

Nome TIPO Descrzione Obbligatorio Default
input_tokens numero intero Numero di token di input. NO
input_tokens_details oggetto Dettaglio dei token di input. NO
└ image_tokens numero intero Numero di token di immagine. NO
└ text_tokens numero intero Numero di token di testo. NO
output_tokens numero intero Numero di token in uscita. NO
total_tokens numero intero Numero totale di token usati. NO

line

Oggetto linea contenuto costituito da una sequenza adiacente di elementi di contenuto, ad esempio parole e segni di selezione.

Nome TIPO Descrzione Obbligatorio Default
spans array Matrice di intervalli che rappresentano gli oggetti rilevati e le relative informazioni sul rettangolo di selezione.
Testo corda

span

Oggetto di intervalli che rappresenta un oggetto rilevato e le relative informazioni sul rettangolo di selezione.

Nome TIPO Descrzione Obbligatorio Default
length numero intero Lunghezza dell'intervallo in caratteri, misurata in punti di codice Unicode.
offset numero intero Offset di caratteri all'interno del testo in cui inizia l'intervallo. Questo offset viene definito come posizione del primo carattere dell'intervallo, contando dall'inizio del testo come punti di codice Unicode.
polygon array Matrice di oggetti che rappresentano punti nel poligono che racchiude l'oggetto rilevato.
Testo corda Contenuto di testo dell'intervallo che rappresenta l'oggetto rilevato.

runCompletionUsage

Statistiche di utilizzo relative all’esecuzione. Questo valore sarà pari a null se l'esecuzione non si trova in uno stato terminale, ad esempio in_progress, queued e così via.

Nome TIPO Descrzione Obbligatorio Default
completion_tokens numero intero Numero di token di completamento che possono essere usati durante l'esecuzione.
prompt_tokens numero intero Numero di token di prompt che possono essere usati durante l'esecuzione.
total_tokens numero intero Numero totale di token usati nella richiesta (prompt + completamento).

runStepCompletionUsage

Statistiche di utilizzo relative al passaggio dell’esecuzione. Questo valore sarà pari a null se lo stato del passaggio di esecuzione è in_progress.

Nome TIPO Descrzione Obbligatorio Default
completion_tokens numero intero Numero di token di completamento che possono essere usati durante il passaggio dell'esecuzione.
prompt_tokens numero intero Numero di token di prompt che possono essere usati durante il passaggio dell’esecuzione.
total_tokens numero intero Numero totale di token usati nella richiesta (prompt + completamento).

assistantsApiResponseFormatOption

Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.

Questo componente può essere uno dei seguenti:

assistantsApiResponseFormat

Oggetto che descrive l'output previsto del modello. Se json_object solo function tipo tools possono essere passati all'esecuzione. Se text il modello può restituire testo o qualsiasi valore necessario.

Nome TIPO Descrzione Obbligatorio Default
type corda Deve essere text o json_object. NO Testo

Tipo di enumerazione: AssistantsApiResponseFormat

Value Descrzione
Testo
json_object

assistantObject

Rappresenta un assistant che può chiamare il modello e usare gli strumenti.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato l’assistente.
descrizione corda Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
instructions corda Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
model corda ID del modello da usare.
nome corda Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri.
oggetto corda Il tipo di oggetto, che è sempre assistant.
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, file_search o function.
[]
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1

Enumerazione dell'oggetto: AssistantObjectType

Value Descrzione
assistente Il tipo di oggetto, che è sempre assistente

createAssistantRequest

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
NO
instructions corda Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 256.000 caratteri.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda
nome corda Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri.
NO
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array Archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
└ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval o function.
NO []
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1

modifyAssistantRequest

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
NO
instructions corda Istruzioni di sistema usate dall'assistente. La lunghezza massima è di 32768 caratteri.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda NO
nome corda Il nome dell’argomento. La lunghezza massima consentita è di 256 caratteri.
NO
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Sovrascrive l’elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array Sovrascrive l’archivio vettoriale collegato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Elenco di strumenti abilitati nell'assistente. Può essere disponibile un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval o function.
NO []
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1

deleteAssistantResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto corda

Oggetto Enum: DeleteAssistantResponseState

Value Descrzione
assistant.deleted

listAssistantsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

assistantToolsCode

Nome TIPO Descrzione Obbligatorio Default
type corda Il tipo di strumento da definire: code_interpreter

Enumerazione tipo: assistantToolsCodeType

Value Descrzione
code_interpreter

assistantToolsFileSearch

Nome TIPO Descrzione Obbligatorio Default
file_search oggetto Esegue l'override dello strumento di ricerca file. NO
└max_num_results numero intero Numero massimo di risultati restituiti dallo strumento di ricerca file. Il valore predefinito è 20 per i modelli GPT-4* e 5 per GPT-3.5-turbo. Questo numero deve essere compreso tra 1 e 50 (estremi inclusi).

Notare che lo strumento di ricerca file potrebbe restituire un numero inferiore a max_num_results risultati.
NO
type corda Il tipo di strumento da definire: file_search

Enumerazione tipo: assistantToolsFileSearchType

Value Descrzione
file_search

assistantToolsFileSearchTypeOnly

Nome TIPO Descrzione Obbligatorio Default
type corda Il tipo di strumento da definire: file_search

Enumerazione tipo: assistantToolsFileSearchType

Value Descrzione
file_search

assistantToolsFunction

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto La definizione della funzione.
└* descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
└> nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri. NO
└─ Parametri chatCompletionFunctionParameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida/ per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. NO
type corda Il tipo di strumento da definire: function

Enumerazione tipo: assistantToolsFunction

Value Descrzione
funzione

truncationObject

Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.

Nome TIPO Descrzione Obbligatorio Default
last_messages numero intero Numero di messaggi più recenti dal thread durante la costruzione del contesto per l'esecuzione. NO
type corda Strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Se impostato su auto, i messaggi al centro del thread verranno rimossi per adattarsi alla lunghezza del contesto del modello, max_prompt_tokens.

Enumerazione tipo: TruncationType

Value Descrzione
auto
last_messages

assistantsApiToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà strumenti e genera invece un messaggio. auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione. Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento.

Questo componente può essere uno dei seguenti:

assistantsNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per costringere il modello a chiamare uno strumento specifico.

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto NO
└> nome corda Nome della funzione da chiamare. NO
type corda Tipo dello strumento. Se il tipo è function, il nome della funzione deve essere set

Enumerazione tipo: AssistantsNamedToolChoiceType

Value Descrzione
funzione
code_interpreter
file_search

runObject

Rappresenta un’esecuzione eseguita in un thread.

Nome TIPO Descrzione Obbligatorio Default
assistant_id corda ID dell'assistente utilizzato per l'esecuzione di questa esecuzione.
cancelled_at numero intero Timestamp Unix (in secondi) di quando è stata eliminata l’esecuzione.
completed_at numero intero Timestamp Unix (in secondi) di quando è stata completata l’esecuzione.
creato_il numero intero Timestamp Unix (in secondi) di quando è stata creata l’enumerazione.
scade_il numero intero Timestamp Unix (in secondi) di quando scadrà l’esecuzione.
failed_at numero intero Timestamp Unix (in secondi) di quando è stato riscontrato un errore con l’esecuzione.
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
incomplete_details oggetto Dettagli sul motivo per cui l'esecuzione è incompleta. Se l'esecuzione non è incompleta, sarà null.
└* motivo corda Motivo per cui l'esecuzione è incompleta. Farà riferimento al limite di token specifico raggiunto nel corso dell'esecuzione. NO
instructions corda Le istruzioni che l’assistente ha utilizzato per questa esecuzione.
errore_ultimo oggetto Ultimo errore associato a questa esecuzione. Sarà null se non ci sono errori.
└─ codice corda Uno tra server_error e rate_limit_exceeded. NO
└* messaggio corda Descrizione leggibile dell'errore. NO
max_completion_tokens numero intero Numero massimo di token di completamento che devono essere usati durante l'esecuzione.
max_prompt_tokens numero intero Numero massimo di token di richiesta che devono essere usati durante l'esecuzione.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
model corda Il modello che l’assistente ha utilizzato per questa esecuzione.
oggetto corda Il tipo di oggetto, che è sempre thread.run.
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
required_action oggetto Dettagli sull'azione necessaria per continuare l'esecuzione. Sarà null se non è necessaria alcuna azione.
└submit_tool_outputs oggetto Dettagli sui risultati dello strumento necessari per continuare il processo. NO
└tool_calls array Elenco delle chiamate degli strumenti pertinenti. NO
└─ Tipo enum Per adesso, questo valore è sempre submit_tool_outputs.
Valori possibili: submit_tool_outputs
NO
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
started_at numero intero Timestamp Unix (in secondi) di quando è stata avviata l’esecuzione.
stato corda Lo stato dell’esecuzione, che può essere queued, in_progress, requires_action, cancelling, cancelled, failed, completed o expired.
temperatura numero Temperatura di campionamento utilizzata per questa esecuzione. Se non viene impostato, il valore predefinito è 1. NO
thread_id corda ID dei thread eseguiti come parte di questa esecuzione.
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento.
strumenti array L’elenco di strumenti che l’assistente ha utilizzato per questa esecuzione. []
top_p numero Valore di campionamento del nucleo utilizzato per questa esecuzione. Se non viene impostato, il valore predefinito è 1. NO
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione.
usage runCompletionUsage Statistiche di utilizzo relative all’esecuzione. Questo valore sarà pari a null se l'esecuzione non si trova in uno stato terminale, ad esempio in_progress, queued e così via.

Enumerazione dell'oggetto: runObjectType

Value Descrzione
thread.run Tipo di oggetto, che è sempre thread.run

Enumerazione stato: RunObjectStatus

Value Descrzione
queued Stato in coda
in_progress Lo stato in_progress
requires_action Lo stato required_action
cancelling Lo stato in fase di annullamento
cancelled Lo stato cancellato
fallito Lo stato non riuscito
completato Lo stato completato
expired Lo stato scaduto

createRunRequest

Nome TIPO Descrzione Obbligatorio Default
additional_instructions corda Aggiunge istruzioni aggiuntive alla fine delle istruzioni per l'esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione senza eseguire l'override di altre istruzioni. NO
additional_messages array Aggiunge messaggi aggiuntivi al thread prima di creare l'esecuzione. NO
assistant_id corda ID dell'assistente da usare per eseguire questa esecuzione.
instructions corda Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
max_completion_tokens numero intero Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di completamento specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
max_prompt_tokens numero intero Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di richiesta specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda ID del modello da utilizzare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. NO
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
torrente boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE].
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento.
NO
strumenti array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. NO

listRunsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

modifyRunRequest

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO

submitToolOutputsRunRequest

Nome TIPO Descrzione Obbligatorio Default
torrente boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE].
NO
tool_outputs array Un elenco degli strumenti per i quali vengono inviati gli output.

runToolCallObject

Oggetti della chiamata dello strumento

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto La definizione della funzione.
└─ Argomenti corda Argomenti previsti dal modello per passare alla funzione. NO
└> nome corda Nome della funzione. NO
id corda ID della chiamata allo strumento. È necessario fare riferimento a questo ID quando si inviano gli output dello strumento nell’usare gli output dello strumento di invio per eseguire l'endpoint.
type corda Il tipo di chiamata dello strumento per cui l’output è necessario. Per adesso, questo valore è sempre function.

Enumerazione tipo: RunToolCallObjectType

Value Descrzione
funzione

createThreadAndRunRequest

Nome TIPO Descrzione Obbligatorio Default
assistant_id corda ID dell'assistente da usare per eseguire questa esecuzione.
instructions corda Eseguire l'override del messaggio di sistema predefinito dell'assistente. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
max_completion_tokens numero intero Numero massimo di token di completamento che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di completamento specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di completamento specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
max_prompt_tokens numero intero Numero massimo di token di richiesta che possono essere usati durante l'esecuzione. L'esecuzione fa il possibile per usare solo il numero di token di richiesta specificato, in più turni dell'esecuzione. Se l’esecuzione supera il numero di token di prompt specificati, terminerà con lo stato incomplete. Per altre informazioni, vedi incomplete_details.
NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
model corda ID dei modelli da usare per eseguire questa esecuzione. Se in questo caso viene fornito un valore, eseguirà l'override del modello associato all'assistente. In caso contrario, verrà usato il modello associato all'assistente. NO
chiamate_parallele_agli_strumenti ParallelToolCalls Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO Vero
formato_risposta assistantsApiResponseFormatOption Specifica il formato che il modello deve restituire. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.

L'impostazione su { "type": "json_schema", "json_schema": {...} } abilita gli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

L'impostazione su { "type": "json_object" } abilita la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello potrebbe generare un flusso inutile di spazi vuoti fino a quando la generazione non raggiunge il limite di token, causando una richiesta a esecuzione prolungata e apparentemente "bloccata". Si noti anche che il contenuto del messaggio può essere parzialmente tagliato se finish_reason="length", che indica che la generazione ha superato max_tokens o la conversazione ha superato la lunghezza massima del contesto.
NO
torrente boolean Se true, restituisce un flusso di eventi che si verificano durante gli eventi inviati dal server Esegui come, terminando quando Run entra in uno stato terminale con un messaggio di data: [DONE].
NO
stream_options chatCompletionStreamOptions Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.
NO None
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
NO 1
thread createThreadRequest NO
tool_choice assistantsApiToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà strumenti e genera invece un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di una funzione.
Se si specifica uno strumento specifico come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} che impone al modello di chiamare tale strumento.
NO
tool_resources oggetto Set di risorse usate dagli strumenti dell'assistente. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array ID dell'archivio vettoriale associato a questo assistente. Può essere presente un massimo di 1 archivio vettoriale collegato all'assistente.
NO
strumenti array Eseguire l'override degli strumenti che l'assistente può usare per questa esecuzione. Ciò è utile per modificare il comportamento in base all'esecuzione. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere è consigliabile modificare questo o la temperatura, ma non entrambi.
NO 1
truncation_strategy truncationObject Controlla come un thread verrà troncato prima dell'esecuzione. Usare questa opzione per controllare la finestra di contesto iniziale dell'esecuzione. NO

threadObject

Rappresenta un thread che contiene messaggi.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il thread.
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
oggetto corda Il tipo di oggetto, che è sempre thread.
tool_resources oggetto Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO

Enumerazione oggetto: ThreadObjectType

Value Descrzione
thread Tipo di oggetto thread che è sempre thread

createThreadRequest

Nome TIPO Descrzione Obbligatorio Default
messages array Elenco di messaggi con cui avviare il thread. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
tool_resources oggetto Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO
└ vector_stores array Helper per creare un archivio vettoriale con file_ids e collegarlo a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO

modifyThreadRequest

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
tool_resources oggetto Set di risorse rese disponibili per gli strumenti dell'assistente in questo thread. Le risorse sono specifiche del tipo di strumento. Ad esempio, lo strumento code_interpreter richiede un elenco di ID di file, mentre lo strumento file_search richiede un elenco di ID archivio vettoriali.
NO
└code_interpreter oggetto NO
└file_ids array Elenco di ID file resi disponibili allo strumento di code_interpreter. Allo strumento possono essere associati al massimo 20 file.
NO []
└file_search oggetto NO
└vector_store_ids array L’archivio vettoriale collegato a questo thread. Può essere presente un massimo di 1 archivio vettoriale collegato al thread.
NO

deleteThreadResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto corda

Enumerazione oggetto: DeleteThreadResponseObjectState

Value Descrzione
thread.deleted Stato dell'oggetto risposta del thread eliminato, ovvero thread.deleted

listThreadsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

messageObject

Rappresenta un messaggio all'interno di un thread.

Nome TIPO Descrzione Obbligatorio Default
assistant_id corda Se applicabile, l'ID dell'assistente che ha creato il messaggio.
attachments array Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti.
completed_at numero intero Timestamp Unix (in secondi) di quando è stato completato il messaggio.
contenuto array Contenuto del messaggio in matrice di testo e/o immagini.
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il messaggio.
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
incomplete_at numero intero Timestamp Unix (in secondi) di quando il messaggio è stato contrassegnato come incompleto.
incomplete_details oggetto In un messaggio incompleto, informazioni dettagliate sul motivo per cui il messaggio è incompleto.
└* motivo corda Motivo per cui il messaggio è incompleto. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
oggetto corda Il tipo di oggetto, che è sempre thread.message.
ruolo corda Entità che ha generato il messaggio. Uno tra user e assistant.
run_id corda Se applicabile, l'ID dell'esecuzione associata alla creazione di questo messaggio.
stato corda Lo stato del messaggio, che può essere in_progress, incomplete o completed.
thread_id corda ID thread a cui appartiene il messaggio.

Enumerazione oggetto: MessageObjectType

Value Descrzione
thread.message Il tipo di oggetto del messaggio, che è sempre thread.message

Enumerazione stato: MessageObjectStatus

Value Descrzione
in_progress
incomplete
completato

Enumerazione ruolo: MessageObjectRole

Value Descrzione
utente
assistente

messageDeltaObject

Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming.

Nome TIPO Descrzione Obbligatorio Default
delta oggetto Delta contenente i campi modificati nel messaggio.
└> contenuto array Contenuto del messaggio in matrice di testo e/o immagini. NO
└─ ruolo corda Entità che ha generato il messaggio. Uno tra user e assistant. NO
id corda Identificatore del messaggio a cui è possibile fare riferimento negli endpoint API.
oggetto corda Il tipo di oggetto, che è sempre thread.message.delta.

Enumerazione oggetto: MessageDeltaObjectType

Value Descrzione
thread.message.delta

createMessageRequest

Nome TIPO Descrzione Obbligatorio Default
attachments array Elenco di file allegati al messaggio e gli strumenti a cui devono essere aggiunti. NO
contenuto corda Il contenuto del messaggio.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
ruolo corda Ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: indica che il messaggio viene inviato da un utente effettivo e deve essere usato nella maggior parte dei casi per rappresentare i messaggi generati dall'utente.
- assistant: indica che il messaggio viene generato dall'assistente. Usare questo valore per inserire messaggi dall'assistente nella conversazione.

Enumerazione ruolo: CreateMessageRequestRole

Value Descrzione
utente
assistente

modifyMessageRequest

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO

deleteMessageResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto corda

Enumerazione oggetto: DeleteMessageResponseObject

Value Descrzione
thread.message.deleted Stato dell'oggetto risposta del messaggio eliminato

listMessagesResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

messageContentImageFileObject

Fa riferimento a un file immagine nel contenuto di un messaggio.

Nome TIPO Descrzione Obbligatorio Default
image_file oggetto
└ file_id corda L’ID del file dell’immagine nel contenuto del messaggio. NO
type corda Sempre image_file.

Enumerazione tipo: MessageContentImageFileObjectType

Value Descrzione
image_file Tipo di file di immagine del contenuto del messaggio

messageContentTextObject

Il contenuto del testo parte del messaggio.

Nome TIPO Descrzione Obbligatorio Default
Testo oggetto
Annotazioni └* array NO
└─ valore corda Dati che costituiscono il testo. NO
type corda Sempre text.

Enumerazione tipo: messageContentTextObjectType

Value Descrzione
Testo Tipo di oggetto del contenuto del messaggio

messageContentTextAnnotationsFileCitationObject

Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "recupero" per cercare i file.

Nome TIPO Descrzione Obbligatorio Default
end_index numero intero
file_citation oggetto
└ file_id corda ID del file specifico da cui deriva la citazione. NO
start_index numero intero
Testo corda Testo nel contenuto del messaggio che deve essere sostituito.
type corda Sempre file_citation.

Enumerazione tipo: FileCitationObjectType

Value Descrzione
file_citation Tipo di oggetto di citazione file

messageContentTextAnnotationsFilePathObject

URL per il file generato quando l'assistente ha usato lo strumento code_interpreter per generare un file.

Nome TIPO Descrzione Obbligatorio Default
end_index numero intero
file_path oggetto
└ file_id corda L’ID del file che è stato generato. NO
start_index numero intero
Testo corda Testo nel contenuto del messaggio che deve essere sostituito.
type corda Sempre file_path.

Enumerazione tipo: FilePathObjectType

Value Descrzione
file_path Tipo di oggetto percorso file

messageDeltaContentImageFileObject

Fa riferimento a un file immagine nel contenuto di un messaggio.

Nome TIPO Descrzione Obbligatorio Default
image_file oggetto NO
└ file_id corda L’ID del file dell’immagine nel contenuto del messaggio. NO
indice numero intero L’indice della parte di contenuto nel messaggio.
type corda Sempre image_file.

Enumerazione tipo: MessageDeltaContentImageFileObjectType

Value Descrzione
image_file

messageDeltaContentTextObject

Il contenuto del testo parte del messaggio.

Nome TIPO Descrzione Obbligatorio Default
indice numero intero L’indice della parte di contenuto nel messaggio.
Testo oggetto NO
Annotazioni └* array NO
└─ valore corda Dati che costituiscono il testo. NO
type corda Sempre text.

Enumerazione tipo: MessageDeltaContentTextObjectType

Value Descrzione
Testo

messageDeltaContentTextAnnotationsFileCitationObject

Citazione all'interno del messaggio che punta a una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare i file.

Nome TIPO Descrzione Obbligatorio Default
end_index numero intero NO
file_citation oggetto NO
└ file_id corda ID del file specifico da cui deriva la citazione. NO
└* offerta corda Virgolette specifiche nel file. NO
indice numero intero Indice dell'annotazione nella parte del contenuto di testo.
start_index numero intero NO
Testo corda Testo nel contenuto del messaggio che deve essere sostituito. NO
type corda Sempre file_citation.

Enumerazione tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Descrzione
file_citation

messageDeltaContentTextAnnotationsFilePathObject

URL per il file generato quando l'assistente ha usato lo strumento code_interpreter per generare un file.

Nome TIPO Descrzione Obbligatorio Default
end_index numero intero NO
file_path oggetto NO
└ file_id corda L’ID del file che è stato generato. NO
indice numero intero Indice dell'annotazione nella parte del contenuto di testo.
start_index numero intero NO
Testo corda Testo nel contenuto del messaggio che deve essere sostituito. NO
type corda Sempre file_path.

Enumerazione tipo: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Descrzione
file_path

runStepObject

Rappresenta un passaggio in esecuzione di un'esecuzione.

Nome TIPO Descrzione Obbligatorio Default
assistant_id corda ID dell'assistente associato al passaggio di esecuzione.
cancelled_at numero intero Timestamp Unix (in secondi) di quando è stato annullato il passaggio dell’esecuzione.
completed_at numero intero Timestamp Unix (in secondi) di quando il passaggio dell’esecuzione viene completato.
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il passaggio dell’esecuzione.
expired_at numero intero Timestamp Unix (in secondi) di quando scadrà il passaggio dell’esecuzione. Un passaggio viene considerato scaduto se l'esecuzione padre è scaduta.
failed_at numero intero Timestamp Unix (in secondi) di quando il passaggio dell’esecuzione dà esito negativo.
id corda Identificatore del passaggio dell’esecuzione a cui è possibile fare riferimento negli endpoint API.
errore_ultimo oggetto Ultimo errore associato a questo passaggio dell’esecuzione. Sarà null se non ci sono errori.
└─ codice corda Uno tra server_error e rate_limit_exceeded. NO
└* messaggio corda Descrizione leggibile dell'errore. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
oggetto corda Il tipo di oggetto, che è sempre assistant.run.step.
run_id corda L’ID dell’esecuzione di cui fa parte questo passaggio dell’esecuzione.
stato corda Lo stato dell’esecuzione, che può essere in_progress, cancelled, failed, completed o expired.
step_details runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject Dettagli del passaggio dell’esecuzione.
thread_id corda ID dei thread eseguiti.
type corda Tipo di passaggio di esecuzione, che può essere message_creation o tool_calls.

Enum dell'oggetto: RunStepObjectType

Value Descrzione
assistant.run.step Il tipo di oggetto, che è sempre assistant.run.step.

Enumerazione tipo: RunStepObjectType

Value Descrzione
message_creation Passaggio di esecuzione message_creation
tool_calls Passaggio di esecuzione tool_calls

Enum di stato: RunStepObjectStatus

Value Descrzione
in_progress Stato di esecuzione in_progress
cancelled Stato di esecuzione annullato
fallito Stato di esecuzione annullato
completato Stato di esecuzione annullato
expired Stato di esecuzione annullato

runStepDeltaObject

Rappresenta un delta del messaggio, ad esempio i campi modificati in un passaggio dell’esecuzione durante lo streaming.

Nome TIPO Descrzione Obbligatorio Default
delta oggetto Delta contenente i campi modificati del passaggio dell’esecuzione.
└step_details runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject Dettagli del passaggio dell’esecuzione. NO
id corda Identificatore del passaggio dell’esecuzione a cui è possibile fare riferimento negli endpoint API.
oggetto corda Il tipo di oggetto, che è sempre thread.run.step.delta.

Enumerazione dell'oggetto: RunStepDeltaObjectType

Value Descrzione
thread.run.step.delta

listRunStepsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

runStepDetailsMessageCreationObject

Dettagli della creazione del messaggio tramite il passaggio dell’esecuzione.

Nome TIPO Descrzione Obbligatorio Default
message_creation oggetto
└message_id corda ID del messaggio creato da questo passaggio di esecuzione. NO
type corda Sempre message_creation.

Enumerazione tipo: RunStepDetailsMessageCreationObjectType

Value Descrzione
message_creation

runStepDeltaStepDetailsMessageCreationObject

Dettagli della creazione del messaggio tramite il passaggio dell’esecuzione.

Nome TIPO Descrzione Obbligatorio Default
message_creation oggetto NO
└message_id corda ID del messaggio creato da questo passaggio di esecuzione. NO
type corda Sempre message_creation.

Enumerazione tipo: RunStepDeltaStepDetailsMessageCreationObjectType

Value Descrzione
message_creation

runStepDetailsToolCallsObject

Dettagli della chiamata allo strumento.

Nome TIPO Descrzione Obbligatorio Default
tool_calls array Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi strumenti possono essere associati a uno dei tre tipi di strumenti: code_interpreter, retrieval o function.
type corda Sempre tool_calls.

Enumerazione tipo: RunStepDetailsToolCallsObjectType

Value Descrzione
tool_calls

runStepDeltaStepDetailsToolCallsObject

Dettagli della chiamata allo strumento.

Nome TIPO Descrzione Obbligatorio Default
tool_calls array Una matrice di strumenti chiama il passaggio di esecuzione coinvolto. Questi strumenti possono essere associati a uno dei tre tipi di strumenti: code_interpreter, file_search o function.
NO
type corda Sempre tool_calls.

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsObjectType

Value Descrzione
tool_calls

runStepDetailsToolCallsCodeObject

I dettagli della chiamata allo strumento Interprete di codice in cui era coinvolto il passaggio di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
code_interpreter oggetto Definizione di chiamata dello strumento Interprete di codice.
└ Input corda Input per la chiamata dello strumento Interprete di codice. NO
└─ gli output array Output per la chiamata dello strumento Interprete di codice. Interprete di codice può restituire uno o più elementi, incluso testo (logs) o immagini (image). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. NO
id corda ID della chiamata allo strumento.
type corda Tipo di chiamata allo strumento. Questo sarà sempre code_interpreter per questo tipo di chiamata allo strumento.

Enumerazione tipo: RunStepDetailsToolCallsCodeObjectType

Value Descrzione
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

I dettagli della chiamata allo strumento Interprete di codice in cui era coinvolto il passaggio di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
code_interpreter oggetto Definizione di chiamata dello strumento Interprete di codice. NO
└ Input corda Input per la chiamata dello strumento Interprete di codice. NO
└─ gli output array Output per la chiamata dello strumento Interprete di codice. Interprete di codice può restituire uno o più elementi, incluso testo (logs) o immagini (image). Ognuno di questi oggetti è rappresentato da un tipo di oggetto diverso. NO
id corda ID della chiamata allo strumento. NO
indice numero intero L'indice della chiamata dello strumento nello strumento chiama matrice.
type corda Tipo di chiamata allo strumento. Questo sarà sempre code_interpreter per questo tipo di chiamata allo strumento.

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Descrzione
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

L'output di testo della chiamata allo strumento Interprete di codice come parte di un passaggio di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
logs corda L’output di testo dalla chiamata allo strumento Interprete di codice.
type corda Sempre logs.

Enumerazione tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Descrzione
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

L'output di testo della chiamata allo strumento Interprete di codice come parte di un passaggio di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
indice numero intero Indice dell'output nella matrice di output.
logs corda L’output di testo dalla chiamata allo strumento Interprete di codice. NO
type corda Sempre logs.

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Descrzione
logs

runStepDetailsToolCallsCodeOutputImageObject

Nome TIPO Descrzione Obbligatorio Default
image oggetto
└ file_id corda L’ID file dell'immagine. NO
type corda Sempre image.

Enumerazione tipo: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Descrzione
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Nome TIPO Descrzione Obbligatorio Default
image oggetto NO
└ file_id corda L’ID file dell'immagine. NO
indice numero intero Indice dell'output nella matrice di output.
type corda Sempre image.

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Descrzione
image

runStepDetailsToolCallsFileSearchObject

Nome TIPO Descrzione Obbligatorio Default
file_search oggetto Per il momento, questo sarà sempre un oggetto vuoto.
└─ risultati array Risultati della ricerca file. NO
id corda ID dell’oggetto della chiamata allo strumento.
type corda Tipo di chiamata allo strumento. Questo sarà sempre file_search per questo tipo di chiamata allo strumento.

Enumerazione tipo: RunStepDetailsToolCallsFileSearchObjectType

Value Descrzione
file_search

runStepDetailsToolCallsFileSearchResultObject

Istanza del risultato della ricerca file.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto del risultato trovato. Il contenuto viene incluso solo se richiesto tramite il parametro di query per l'inclusione. NO
ID del file corda ID del file in cui è stato trovato il risultato.
file_name corda Nome del file in cui è stato trovato il risultato.
Punteggio numero Punteggio del risultato. Tutti i valori devono essere un numero a virgola mobile compreso tra 0 e 1.

runStepDeltaStepDetailsToolCallsFileSearchObject

Nome TIPO Descrzione Obbligatorio Default
file_search oggetto Per il momento, questo sarà sempre un oggetto vuoto.
id corda ID dell’oggetto della chiamata allo strumento. NO
indice numero intero L'indice della chiamata dello strumento nello strumento chiama matrice.
type corda Tipo di chiamata allo strumento. Questo sarà sempre retrieval per questo tipo di chiamata allo strumento.

Enumerazione tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Descrzione
file_search

runStepDetailsToolCallsFunctionObject

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto Definizione della funzione chiamata.
└─ Argomenti corda Gli argomenti passati alla funzione. NO
└> nome corda Nome della funzione. NO
└─ uscita corda Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. NO
id corda ID dell’oggetto della chiamata allo strumento.
type corda Tipo di chiamata allo strumento. Questo sarà sempre function per questo tipo di chiamata allo strumento.

Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType

Value Descrzione
funzione

runStepDeltaStepDetailsToolCallsFunctionObject

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto Definizione della funzione chiamata. NO
└─ Argomenti corda Gli argomenti passati alla funzione. NO
└> nome corda Nome della funzione. NO
└─ uscita corda Output della funzione. Questo sarà null se gli output non sono ancora stati inviati. NO
id corda ID dell’oggetto della chiamata allo strumento. NO
indice numero intero L'indice della chiamata dello strumento nello strumento chiama matrice.
type corda Tipo di chiamata allo strumento. Questo sarà sempre function per questo tipo di chiamata allo strumento.

Enumerazione tipo: RunStepDetailsToolCallsFunctionObjectType

Value Descrzione
funzione

vectorStoreExpirationAfter

I criteri di scadenza per un archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
anchor corda Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at.
Giorni numero intero Numero di giorni dopo l'ora di ancoraggio in cui scadrà l'archivio vettoriale.

Enumerazione ancoraggio: VectorStoreExpirationAfterAnchor

Value Descrzione
ultima_attività_il Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza.

vectorStoreObject

Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo strumento file_search.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato l’archivio vettoriale.
scade dopo vectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
scade_il numero intero Timestamp Unix (in secondi) di quando l’archivio vettoriale scadrà. NO
file_counts oggetto
└* annullato numero intero Il numero di file che sono stati annullati. NO
└* completato numero intero Il numero di file elaborati correttamente. NO
└* non riuscito numero intero Il numero di file per cui l’elaborazione non è riuscita. NO
└─ in corso numero intero Il numero di file attualmente in fase di elaborazione. NO
└─ totale numero intero Numero totale di file. NO
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
ultima_attività_il numero intero Timestamp Unix (in secondi) di quando l’archivio vettoriale è stato attivo per l’ultima volta.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
nome corda Il nome dell’archivio vettoriale.
oggetto enum Il tipo di oggetto, che è sempre vector_store.
Valori possibili: vector_store
stato corda Lo stato dell’archivio vettoriale, che può essere expired, in_progress o completed. Lo stato di completed indica che l'archivio vettoriale è pronto per l'uso.
usage_bytes numero intero Numero totale di byte utilizzati dai file nell'archivio vettoriale.

Enumerazione stato: VectorStoreObjectStatus

Value Descrzione
expired
in_progress
completato

createVectorStoreRequest

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. Applicabile solo se file_ids non è vuoto. NO
scade dopo vectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

updateVectorStoreRequest

Nome TIPO Descrzione Obbligatorio Default
scade dopo vectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe al massimo 64 caratteri, mentre i valori al massimo 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

listVectorStoresResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

deleteVectorStoreResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto corda

Oggetto Enum: DeleteVectorStoreResponseObject

Value Descrzione
vector_store.deleted Stato dell'oggetto risposta dell'archivio vettoriale di eliminazione

vectorStoreFileObject

Elenco di file collegati a un archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. Applicabile solo se file_ids non è vuoto. NO
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il file dell’archivio vettoriale.
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
errore_ultimo oggetto Ultimo errore associato a questo file dell’archivio vettoriale. Sarà null se non ci sono errori.
└─ codice corda Uno tra server_error, invalid_file o unsupported_file. NO
└* messaggio corda Descrizione leggibile dell'errore. NO
oggetto corda Il tipo di oggetto, che è sempre vector_store.file.
stato corda Lo stato del file dell’archivio vettoriale, che può essere in_progress, completed, cancelled o failed. Lo stato di completed indica che il file dell’archivio vettoriale è pronto per l'uso.
usage_bytes numero intero Utilizzo totale dell'archivio vettoriale in byte. Si noti che questo può essere diverso dalle dimensioni del file originale.
ID del negozio vettoriale corda ID dell'archivio vettoriale a cui è associato il file.

Enumerazione oggetto: VectorStoreFileObjectType

Value Descrzione
vector_store.file

Enumerazione stato: VectorStoreFileObjectStatus

Value Descrzione
in_progress
completato
cancelled
fallito

otherChunkingStrategyResponseParam

Viene restituito quando la strategia di suddivisione in blocchi è sconosciuta. In genere, ciò è dovuto al fatto che il file è stato indicizzato prima dell'introduzione del concetto chunking_strategy nell'API.

Nome TIPO Descrzione Obbligatorio Default
type corda Sempre other.

tipo Enum: OtherChunkingStrategyResponseParamType

Value Descrzione
other

staticChunkingStrategyResponseParam

Nome TIPO Descrzione Obbligatorio Default
statico staticChunkingStrategy
type corda Sempre static.

type Enum: StaticChunkingStrategyResponseParamType

Value Descrzione
statico

staticChunkingStrategy

Nome TIPO Descrzione Obbligatorio Default
sovrapposizione_segmento_token numero intero Numero di token che si sovrappongono tra blocchi. Il valore predefinito è 400.

Notare che la sovrapposizione non deve superare la metà di max_chunk_size_tokens.
dimensione_massima_chunk_token numero intero Numero massimo di token in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096.

autoChunkingStrategyRequestParam

Strategia predefinita. Attualmente, questa strategia usa un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400.

Nome TIPO Descrzione Obbligatorio Default
type enum Sempre auto.
Valori possibili: auto

staticChunkingStrategyRequestParam

Nome TIPO Descrzione Obbligatorio Default
statico staticChunkingStrategy
type enum Sempre static.
Valori possibili: static

chunkingStrategyRequestParam

Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto.

Questo componente può essere uno dei seguenti:

createVectorStoreFileRequest

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
ID del file corda Un ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

listVectorStoreFilesResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto corda

deleteVectorStoreFileResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto corda

Enum object: DeleteVectorStoreFileResponseObject

Value Descrzione
vector_store.file.deleted

vectorStoreFileBatchObject

Una batch di file collegati a un archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il batch di file dell’archivio vettoriale.
file_counts oggetto
└* annullato numero intero Il numero di file che sono stati annullati. NO
└* completato numero intero Il numero di file elaborati. NO
└* non riuscito numero intero Il numero di file per cui l’elaborazione non è riuscita. NO
└─ in corso numero intero Il numero di file attualmente in fase di elaborazione. NO
└─ totale numero intero Numero totale di file. NO
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
oggetto corda Il tipo di oggetto, che è sempre vector_store.file_batch.
stato corda Lo stato del batch del file dell’archivio vettoriale, che può essere in_progress, completed, cancelled o failed.
ID del negozio vettoriale corda ID dell'archivio vettoriale a cui è associato il file.

Enumerazione oggetto: VectorStoreFileBatchObjectType

Value Descrzione
vector_store.files_batch

Enumerazione stato: VectorStoreFileBatchObjectStatus

Value Descrzione
in_progress
completato
cancelled
fallito

createVectorStoreFileBatchRequest

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy chunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

assistantStreamEvent

Rappresenta un evento generato durante lo streaming di un’esecuzione.

Ogni evento in uno streaming di eventi inviati dal server ha una proprietà event e data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Vengono generati eventi ogni volta che viene creato un nuovo oggetto, passa a un nuovo stato o viene trasmesso in parti (delta). Ad esempio, viene generato thread.run.created quando viene creata una nuova esecuzione, thread.run.completed al termine di un'esecuzione e così via. Quando un Assistente sceglie di creare un messaggio durante un'esecuzione, viene generato un thread.message.created event, un evento thread.message.in_progress, molti eventi thread.message.delta e infine un evento thread.message.completed.

È possibile aggiungere altri eventi nel tempo, pertanto è consigliabile gestire correttamente gli eventi sconosciuti nel codice.

Questo componente può essere uno dei seguenti:

threadStreamEvent

Questo componente può essere uno dei seguenti:

thread.created

Viene generato quando viene creata un nuovo thread.

Nome TIPO Descrzione Obbligatorio Default
data threadObject Rappresenta un thread che contiene messaggi.
evento corda

Dati: threadObject

Enumerazione di eventi: ThreadStreamEventEnum

Value Descrzione
thread.created Evento creato dal thread

runStreamEvent

Questo componente può essere uno dei seguenti:

thread.run.created

Viene generato quando viene creata una nuova esecuzione.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventCreated

Value Descrzione
thread.run.created

thread.run.queued

Occorre quando un’esecuzione si sposta verso uno stato queued.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventQueued

Value Descrzione
thread.run.queued

thread.run.in_progress

Occorre quando un’esecuzione si sposta verso uno stato in_progress.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventInProgress

Value Descrzione
thread.run.in_progress

thread.run.requires_action

Occorre quando un’esecuzione si sposta verso uno stato requires_action.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventRequiresAction

Value Descrzione
thread.run.requires_action

thread.run.completed

Si verifica quando un’esecuzione è completata.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventCompleted

Value Descrzione
thread.run.completed

thread.run.failed

Si verifica quando un'esecuzione non riesce.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventFailed

Value Descrzione
thread.run.failed

thread.run.cancelling

Occorre quando un’esecuzione si sposta verso uno stato cancelling.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventCancelling

Value Descrzione
thread.run.cancelling

thread.run.cancelled

Si verifica quando un’esecuzione è annullata.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventCancelled

Value Descrzione
thread.run.cancelled

thread.run.expired

Si verifica quando un'esecuzione scade.

Nome TIPO Descrzione Obbligatorio Default
data runObject Rappresenta un’esecuzione eseguita in un thread.
evento corda

Dati: runObject

Enumerazione evento: RunStreamEventExpired

Value Descrzione
thread.run.expired

runStepStreamEvent

Questo componente può essere uno dei seguenti:

thread.run.step.created

Si verifica quando viene creato un passaggio di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
evento corda

Dati: runStepObject

Enumerazione evento: RunStepStreamEventCreated

Value Descrzione
thread.run.step.created

thread.run.step.in_progress

Si verifica quando un’esecuzione si sposta verso uno stato in_progress.

Nome TIPO Descrzione Obbligatorio Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
evento corda

Dati: runStepObject

Enumerazione evento: RunStepStreamEventInProgress

Value Descrzione
thread.run.step.in_progress

thread.run.step.delta

Si verifica quando vengono trasmessi parti di un passaggio di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
data runStepDeltaObject Rappresenta un delta del messaggio, ad esempio i campi modificati in un passaggio dell’esecuzione durante lo streaming.
evento corda

Dati: runStepDeltaObject

Enumerazione evento: RunStepStreamEventDelta

Value Descrzione
thread.run.step.delta

thread.run.step.completed

Si verifica quando un passaggio dell’esecuzione è completato.

Nome TIPO Descrzione Obbligatorio Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
evento corda

Dati: runStepObject

Enumerazione evento: RunStepStreamEventCompleted

Value Descrzione
thread.run.step.completed

thread.run.step.failed

Si verifica quando un passaggio di esecuzione non riesce.

Nome TIPO Descrzione Obbligatorio Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
evento corda

Dati: runStepObject

Enumerazione evento: RunStepStreamEventFailed

Value Descrzione
thread.run.step.failed

thread.run.step.cancelled

Si verifica quando un passaggio di esecuzione viene annullato.

Nome TIPO Descrzione Obbligatorio Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
evento corda

Dati: runStepObject

Enumerazione evento: RunStepStreamEventCancelled

Value Descrzione
thread.run.step.cancelled

thread.run.step.expired

Si verifica quando un passaggio di esecuzione scade.

Nome TIPO Descrzione Obbligatorio Default
data runStepObject Rappresenta un passaggio in esecuzione di un'esecuzione.
evento corda

Dati: runStepObject

Enumerazione evento: RunStepStreamEventExpired

Value Descrzione
thread.run.step.expired

messageStreamEvent

Questo componente può essere uno dei seguenti:

thread.message.created

Si verifica quando viene creato un messaggio.

Nome TIPO Descrzione Obbligatorio Default
data messageObject Rappresenta un messaggio all'interno di un thread.
evento corda

Dati: messageObject

Enumerazione evento: MessageStreamEventCreated

Value Descrzione
thread.message.created

thread.message.in_progress

Si verifica quando un messaggio si sposta verso uno stato in_progress.

Nome TIPO Descrzione Obbligatorio Default
data messageObject Rappresenta un messaggio all'interno di un thread.
evento corda

Dati: messageObject

Enumerazione evento: MessageStreamEventInProgress

Value Descrzione
thread.message.in_progress

thread.message.delta

Si verifica quando vengono trasmessi parti di un messaggio.

Nome TIPO Descrzione Obbligatorio Default
data messageDeltaObject Rappresenta un delta del messaggio, ad esempio i campi modificati in un messaggio durante lo streaming.
evento corda

Dati: messageDeltaObject

Enumerazione evento: MessageStreamEventDelta

Value Descrzione
thread.message.delta

thread.message.completed

Si verifica quando un messaggio viene completato.

Nome TIPO Descrzione Obbligatorio Default
data messageObject Rappresenta un messaggio all'interno di un thread.
evento corda

Dati: messageObject

Enumerazione evento: MessageStreamEventCompleted

Value Descrzione
thread.message.completed

thread.message.incomplete

Si verifica al termine di un messaggio prima del completamento.

Nome TIPO Descrzione Obbligatorio Default
data messageObject Rappresenta un messaggio all'interno di un thread.
evento corda

Dati: messageObject

Enumerazione evento: MessageStreamEventIncomplete

Value Descrzione
thread.message.incomplete

Annotation

Questo componente può essere uno dei seguenti:

Click

Azione di fare clic.

Nome TIPO Descrzione Obbligatorio Default
pulsante enum Indica il pulsante del mouse premuto durante il clic. Uno di left, rightwheel, back, o forward.

Valori possibili: left, rightwheel, , back,forward
type enum Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre impostata su click.

Valori possibili: click
x numero intero Coordinata x in cui si è verificato il clic.
y numero intero Coordinata y in cui si è verificato il clic.

CodeInterpreterFileOutput

L'output di una chiamata di uno strumento interprete di codice che genera un file.

Nome TIPO Descrzione Obbligatorio Default
files array
type enum Tipo di output del file dell'interprete del codice. Sempre files.

Valori possibili: files

CodeInterpreterTextOutput

Output di una chiamata dello strumento dell'interprete di codice sotto forma di testo.

Nome TIPO Descrzione Obbligatorio Default
logs corda Registri delle chiamate dello strumento interprete del codice.
type enum Tipo dell'output di testo dell'interprete del codice. Sempre logs.

Valori possibili: logs

CodeInterpreterTool

Strumento che esegue il codice.

Nome TIPO Descrzione Obbligatorio Default
identificatori_di_file array ID dei file su cui eseguire il codice.
type enum Tipo dello strumento dell'interprete di codice. Sempre code_interpreter.

Valori possibili: code_interpreter

CodeInterpreterToolCall

Chiamata dello strumento per eseguire il codice.

Nome TIPO Descrzione Obbligatorio Default
codice corda Codice da eseguire.
id corda ID univoco della chiamata dello strumento interprete del codice.
results array Risultati della chiamata dello strumento dell'interprete del codice.
stato enum Stato della chiamata dello strumento dell'interprete del codice.

Valori possibili: in_progress, interpreting, completed
type enum Tipo di chiamata dello strumento dell'interprete del codice. Sempre code_interpreter_call.

Valori possibili: code_interpreter_call

CodeInterpreterToolOutput

Questo componente può essere uno dei seguenti:

ComparisonFilter

Filtro utilizzato per confrontare una chiave di attributo specificata con un determinato valore usando un'operazione di confronto definita.

Nome TIPO Descrzione Obbligatorio Default
chiave corda La chiave da confrontare rispetto al valore.
type enum Specifica l'operatore di confronto: eq, ne, gt, gte, lt, lte.
- eq: uguale
- ne: non uguale
- gt:maggiore
- gte: maggiore o uguale a
- lt:meno di
- lte: minore o uguale a

Valori possibili: eq, negt, gte, , ltlte
valore stringa o numero o valore booleano Valore da confrontare con la chiave dell'attributo; supporta tipi stringa, numero o boolean.

CompoundFilter

Combinare più filtri usando and o or.

Nome TIPO Descrzione Obbligatorio Default
filters array Matrice di filtri da combinare. Gli elementi possono essere ComparisonFilter o CompoundFilter.
type enum Tipo di operazione: and o or.
Valori possibili: and, or

ComputerAction

Questo componente può essere uno dei seguenti:

ComputerScreenshotImage

Immagine di uno screenshot del computer usata con lo strumento per l'uso del computer.

Nome TIPO Descrzione Obbligatorio Default
ID del file corda Identificatore di un file caricato che contiene lo screenshot. NO
image_url corda URL dell'immagine di screenshot. NO
type enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.

Valori possibili: computer_screenshot

ComputerTool

Strumento che controlla un computer virtuale.

Nome TIPO Descrzione Obbligatorio Default
altezza_schermo numero Altezza dello schermo del computer.
larghezza_display numero Larghezza della visualizzazione del computer.
environment enum Tipo di ambiente del computer da controllare.

Valori possibili: mac, windows, ubuntu, browser
type enum Tipo dello strumento di utilizzo del computer. Sempre computer_use_preview.

Valori possibili: computer-use-preview

ComputerToolCall

Chiamata di uno strumento a uno strumento per l'uso del computer.

Nome TIPO Descrzione Obbligatorio Default
azione ComputerAction
call_id corda Identificatore usato per rispondere alla chiamata dello strumento con output.
id corda ID univoco della chiamata computer.
pending_safety_checks array Controlli di sicurezza in sospeso per la chiamata computer.
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
type enum Tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

ComputerToolCallOutput

Output di una chiamata allo strumento del computer.

Nome TIPO Descrzione Obbligatorio Default
acknowledged_safety_checks array I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dallo sviluppatore.
NO
call_id corda ID della chiamata dello strumento del computer che ha prodotto l'output.
id corda ID dell'output della chiamata dello strumento computer.
NO
output ComputerScreenshotImage Immagine di uno screenshot del computer usata con lo strumento per l'uso del computer.
stato enum Stato dell'input del messaggio. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo dell'output della chiamata dello strumento computer. Sempre computer_call_output.

Valori possibili: computer_call_output

ComputerToolCallOutputResource

Nome TIPO Descrzione Obbligatorio Default
acknowledged_safety_checks array I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dallo sviluppatore.
NO
call_id corda ID della chiamata dello strumento del computer che ha prodotto l'output.
id corda ID univoco dell'output dello strumento di chiamata computer.
output ComputerScreenshotImage Immagine di uno screenshot del computer usata con lo strumento per l'uso del computer.
stato enum Stato dell'input del messaggio. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo dell'output della chiamata dello strumento computer. Sempre computer_call_output.

Valori possibili: computer_call_output

ComputerToolCallSafetyCheck

Controllo di sicurezza in sospeso per la chiamata computer.

Nome TIPO Descrzione Obbligatorio Default
codice corda Tipo del controllo di sicurezza in sospeso.
id corda ID del controllo di sicurezza in sospeso.
message corda Dettagli sul controllo di sicurezza in sospeso.

Content

Contenuti di input e output multimodali.

Questo componente può essere uno dei seguenti:

Coordinate

Coppia di coordinate x/y, ad esempio { x: 100, y: 200 }.

Nome TIPO Descrzione Obbligatorio Default
x numero intero Coordinata x.
y numero intero Coordinata y.

CreateModelResponseProperties

Nome TIPO Descrzione Obbligatorio Default
metadata Metadati Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
NO
model corda Modello usato per generare le risposte. NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. .
NO

createResponse

Nome TIPO Descrzione Obbligatorio Default
includi array {"$ref": "#/components/schemas/includable/description"} NO
ingresso stringa o matrice Input di testo, immagine o file nel modello, usato per generare una risposta.
instructions corda Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
NO
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento.
NO
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo.
NO Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. NO
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento. NO
store boolean Indica se archiviare la risposta del modello generata per il recupero successivo tramite API.
NO Vero
torrente boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server. NO Falso
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Ulteriori informazioni:
- input e output testuali
- Output strutturati
NO
└* formato TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
NO
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti predefiniti
NO
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca il
risposta che si adatta alla finestra di contesto eliminando gli elementi di input in mezzo alla conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
NO

DoubleClick

Azione con doppio clic.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.

Valori possibili: double_click
x numero intero Coordinata x in cui si è verificato il doppio clic.
y numero intero Coordinata y in cui si è verificato il doppio clic.

Drag

Azione di trascinamento.

Nome TIPO Descrzione Obbligatorio Default
path array Matrice di coordinate che rappresentano il percorso dell'azione di trascinamento. Le coordinate verranno visualizzate come matrice di oggetti, ad esempio[{ x: 100, y: 200 }, { x: 200, y: 300 }]
type enum Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è sempre impostata su drag.

Valori possibili: drag

EasyInputMessage

Messaggio di input al modello con un ruolo che indica la gerarchia di esecuzione delle istruzioni. Le istruzioni fornite con il ruolo developer o system hanno la precedenza sulle istruzioni fornite con il ruolo user. Si presuppone che i messaggi con il assistant ruolo siano stati generati dal modello nelle interazioni precedenti.

Nome TIPO Descrzione Obbligatorio Default
contenuto string o InputMessageContentList Input di testo, immagine o audio per il modello, usato per generare una risposta.
Può anche contenere risposte di assistente precedenti.
ruolo enum Ruolo dell'inserimento del messaggio. Uno tra user, assistant, system o developer.

Valori possibili: user, assistant, system, developer
type enum Tipo di input del messaggio. Sempre message.

Valori possibili: message
NO

FileCitation

Citazione in un file.

Nome TIPO Descrzione Obbligatorio Default
ID del file corda ID del file.
indice numero intero Indice del file nell'elenco di file.
type enum Tipo di citazione del file. Sempre file_citation.

Valori possibili: file_citation

FilePath

Percorso di un file.

Nome TIPO Descrzione Obbligatorio Default
ID del file corda ID del file.
indice numero intero Indice del file nell'elenco di file.
type enum Tipo del percorso del file. Sempre file_path.

Valori possibili: file_path

FileSearchRanker

Ranker da usare per la ricerca di file. Se non specificato, verrà utilizzato il ranker auto.

Proprietà Value
Descrizione Ranker da usare per la ricerca di file. Se non specificato, verrà utilizzato il ranker auto.
Tipo corda
Valori auto
default_2024_08_21

FileSearchTool

Strumento che cerca il contenuto pertinente dai file caricati.

Nome TIPO Descrzione Obbligatorio Default
filters ComparisonFilter o CompoundFilter Filtro da applicare in base agli attributi del file. NO
max_num_risultati numero intero Il numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 (estremi inclusi).
NO
opzioni_di_classifica oggetto Opzioni di classificazione per la ricerca. NO
└* ranker enum Ranker da usare per la ricerca di file.
Valori possibili: auto, default-2024-11-15
NO
└─ soglia_punteggio numero Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1.
I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati.
NO 0
type enum Tipo dello strumento di ricerca file. Sempre file_search.

Valori possibili: file_search
vector_store_ids array ID degli archivi vettoriali da cercare.

FileSearchToolCall

Risultati di una chiamata allo strumento di ricerca file.

Nome TIPO Descrzione Obbligatorio Default
id corda ID univoco della chiamata allo strumento per la ricerca dei file.
queries array Le interrogazioni usate per cercare i file.
results array Risultati della chiamata allo strumento di ricerca file.
NO
stato enum Stato della chiamata allo strumento di ricerca file. Uno di in_progress, searchingincomplete o failed,

Valori possibili: in_progress, searchingcompleted, , incomplete,failed
type enum Tipo di chiamata allo strumento di ricerca file. Sempre file_search_call.

Valori possibili: file_search_call

FunctionTool

Definisce una funzione nel tuo codice che il modello può chiamare.

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione della funzione. Utilizzato dal modello per determinare se chiamare o meno la funzione.
NO
nome corda Nome della funzione da chiamare.
parameters oggetto Oggetto schema JSON che descrive i parametri della funzione.
rigido boolean Indica se applicare la convalida rigorosa dei parametri. Valore predefinito true.
type enum Tipo di strumento funzionale. Sempre function.

Valori possibili: function

FunctionToolCall

Chiamata di uno strumento per eseguire una funzione.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON degli argomenti da passare alla funzione.
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
id corda ID univoco della chiamata dello strumento di funzione.
nome corda Nome della funzione da eseguire.
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo di chiamata dello strumento di funzione. Sempre function_call.

Valori possibili: function_call

FunctionToolCallOutput

Output di una chiamata dello strumento di funzione.

Nome TIPO Descrzione Obbligatorio Default
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
id corda ID univoco dell'output della chiamata dello strumento di funzione. Viene popolato quando questo elemento è restituito tramite API.
NO
output corda Stringa JSON dell'output della chiamata dello strumento di funzione.
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo di output della chiamata dello strumento di funzione. Sempre function_call_output.

Valori possibili: function_call_output

FunctionToolCallOutputResource

Nome TIPO Descrzione Obbligatorio Default
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
id corda ID univoco dell'output dello strumento di chiamata di funzione.
output corda Stringa JSON dell'output della chiamata dello strumento di funzione.
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo di output della chiamata dello strumento di funzione. Sempre function_call_output.

Valori possibili: function_call_output

includable

Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:

  • file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
  • message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
  • computer_call_output.output.image_url: includere gli URL delle immagini provenienti dall'output della chiamata computer.
Proprietà Value
Descrizione Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
- file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
- message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
- computer_call_output.output.image_url: includere gli URL delle immagini provenienti dall'output della chiamata computer.
Tipo corda
Valori file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Input audio per il modello.

Nome TIPO Descrzione Obbligatorio Default
data corda Dati audio con codifica Base64.
format enum Formato dei dati audio. I formati attualmente supportati sono mp3 e wav.

Valori possibili: mp3, wav
type enum Tipo dell'elemento di input. Sempre input_audio.

Valori possibili: input_audio

InputContent

Questo componente può essere uno dei seguenti:

InputFile

Un file di input per il modello.

Nome TIPO Descrzione Obbligatorio Default
file_data corda Contenuto del file da inviare al modello.
NO
ID del file corda ID del file da inviare al modello.
NO
filename corda Nome del file da inviare al modello.
NO
type enum Tipo dell'elemento di input. Sempre input_file.

Valori possibili: input_file

InputImage

Un'immagine come input per il modello.

Nome TIPO Descrzione Obbligatorio Default
detail enum Livello di dettaglio dell'immagine da inviare al modello. Uno tra high, low e auto. Il valore predefinito è auto.

Valori possibili: high, low, auto
ID del file corda ID del file da inviare al modello.
NO
image_url corda URL dell'immagine da inviare al modello. URL completo o immagine con codifica Base64 in un URL dati.
NO
type enum Tipo dell'elemento di input. Sempre input_image.

Valori possibili: input_image

InputItem

Questo componente può essere uno dei seguenti:

InputMessage

Messaggio di input al modello con un ruolo che indica la gerarchia di esecuzione delle istruzioni. Le istruzioni fornite con il ruolo developer o system hanno la precedenza sulle istruzioni fornite con il ruolo user.

Nome TIPO Descrzione Obbligatorio Default
contenuto InputMessageContentList Elenco di uno o più elementi di input per il modello, contenente contenuto diverso
types.
ruolo enum Ruolo dell'inserimento del messaggio. Uno tra user, system e developer.

Valori possibili: user, system, developer
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo di input del messaggio. Sempre impostato su message.

Valori possibili: message
NO

InputMessageContentList

Elenco di uno o più elementi di input per il modello, contenente tipi di contenuto diversi.

Nessuna proprietà definita per questo componente.

InputMessageResource

Nome TIPO Descrzione Obbligatorio Default
contenuto InputMessageContentList Elenco di uno o più elementi di input per il modello, contenente contenuto diverso
types.
id corda ID univoco dell'input del messaggio.
ruolo enum Ruolo dell'inserimento del messaggio. Uno tra user, system e developer.

Valori possibili: user, system, developer
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo di input del messaggio. Sempre impostato su message.

Valori possibili: message
NO

InputText

Input di testo per il modello.

Nome TIPO Descrzione Obbligatorio Default
Testo corda Input di testo per il modello.
type enum Tipo dell'elemento di input. Sempre input_text.

Valori possibili: input_text

Elemento

Elemento di contenuto usato per generare una risposta.

Questo componente può essere uno dei seguenti:

ItemReference

Identificatore interno di un elemento a cui fare riferimento.

Nome TIPO Descrzione Obbligatorio Default
id corda ID dell'elemento a cui fare riferimento.
type enum Tipo di elemento a cui fare riferimento. Sempre item_reference.

Valori possibili: item_reference

ItemResource

Elemento di contenuto usato per generare una risposta.

Questo componente può essere uno dei seguenti:

KeyPress

Una raccolta di pressioni di tasti che il modello desidera eseguire.

Nome TIPO Descrzione Obbligatorio Default
Chiavi array La combinazione di tasti che il modello richiede di premere. Si tratta di una matrice di stringhe, ognuna che rappresenta una chiave.
type enum Specifica il tipo di evento. Per un'azione keypress, questa proprietà è sempre impostata su keypress.

Valori possibili: keypress

Metadati

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Nessuna proprietà definita per questo componente.

ModelResponseProperties

Nome TIPO Descrzione Obbligatorio Default
metadata Metadati Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
NO
model corda Modello usato per generare le risposte. NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. .
NO

Move

Azione di spostamento del mouse.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è sempre impostata su move.

Valori possibili: move
x numero intero Coordinata x in cui spostarsi.
y numero intero Coordinata y su cui spostarsi.

OutputAudio

Un'uscita audio dal modello.

Nome TIPO Descrzione Obbligatorio Default
data corda Dati audio con codifica Base64 dal modello.
transcript corda Trascrizione dei dati audio del modello.
type enum Tipo di output audio. Sempre output_audio.

Valori possibili: output_audio

OutputContent

Questo componente può essere uno dei seguenti:

OutputItem

Nome TIPO Descrzione Obbligatorio Default
azione ComputerAction
arguments corda Stringa JSON degli argomenti da passare alla funzione.
call_id corda Identificatore usato per rispondere alla chiamata dello strumento con output.
contenuto array Contenuti del testo di ragionamento.
id corda Identificatore univoco del contenuto di ragionamento.
nome corda Nome della funzione da eseguire.
pending_safety_checks array Controlli di sicurezza in sospeso per la chiamata computer.
queries array Le interrogazioni usate per cercare i file.
results array Risultati della chiamata allo strumento di ricerca file.
NO
ruolo enum Ruolo del messaggio di output. Sempre assistant.

Valori possibili: assistant
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
type enum Tipo dell'oggetto . Sempre reasoning.

Valori possibili: reasoning

OutputMessage

Messaggio di output del modello.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto del messaggio di output.
id corda ID univoco del messaggio di output.
ruolo enum Ruolo del messaggio di output. Sempre assistant.

Valori possibili: assistant
stato enum Stato dell'input del messaggio. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi di input vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
type enum Tipo del messaggio di output. Sempre message.

Valori possibili: message

OutputText

Output di testo del modello.

Nome TIPO Descrzione Obbligatorio Default
annotazioni array Annotazioni dell'output di testo.
Testo corda L'output di testo generato dal modello.
type enum Tipo del testo di uscita. Sempre output_text.

Valori possibili: output_text

RealtimeSessionCreateRequest

Configurazione dell'oggetto sessione in tempo reale.

Nome TIPO Descrzione Obbligatorio Default
input_audio_format enum Formato dell'audio di input. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento di 24 kHz, un singolo canale (mono) e un ordine dei byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
NO
input_audio_noise_reduction oggetto Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento dei turni e dell'attività vocale (VAD), riducendo i falsi positivi, e le prestazioni del modello migliorando la percezione dell'audio di input.
NO
└─ Tipo enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
NO
input_audio_transcription oggetto Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivarla una volta attivata. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite l'endpoint Trascrizioni e deve essere considerata come una guida per il contenuto audio di input, piuttosto che un'indicazione precisa di quello che il modello ha sentito. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
NO
└* lingua corda La lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
NO
└─ Modello corda Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1.
NO
└* prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
NO
instructions corda Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) vengono anteposte alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.

Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
NO
max_response_output_tokens integer o stringa Numero massimo di token di output per una singola risposta dell'assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf.
NO
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
NO
model corda Nome della distribuzione utilizzata per questa sessione.
NO
output_audio_format enum Formato dell'audio di output. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
Per pcm16, l'audio di output viene campionato a una velocità di 24 kHz.

Valori possibili: pcm16, g711_ulaw, g711_alaw
NO
temperatura numero Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Per i modelli audio una temperatura di 0,8 è altamente consigliata per ottenere prestazioni ottimali.
NO 0.8
tool_choice corda Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione.
NO auto
strumenti array Strumenti (funzioni) disponibili per il modello. NO
turn_detection oggetto Configurazione per il rilevamento dei turni, VAD server o VAD semantico. Può essere impostato su null per disattivare, nel qual caso il cliente deve attivare manualmente la risposta del modello.
La VAD server indica che il modello rileverà l'inizio e la fine del parlato in base al volume audio e che risponderà quando l'utente smette di parlare.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello assegnerà un punteggio a una bassa probabilità di fine turno e attenderà più a lungo affinché l'utente possa continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
NO
└create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD.
NO Vero
└─ impazienza enum Usato solo per modalità semantic_vad. Impazienza di rispondere da parte del modello. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
NO
└interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con un output per la conversazione predefinita (ad esempio conversation di auto) quando si verifica un evento di avvio VAD.
NO Vero
└prefix_padding_ms numero intero Usato solo per modalità server_vad. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
NO
└durata_silenzio_ms numero intero Usato solo per modalità server_vad. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi, il modello risponderà più rapidamente, ma potrebbe attivarsi durante le brevi pause dell'utente.
NO
└* soglia numero Usato solo per modalità server_vad. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
NO
└─ Tipo enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
NO
voice VoiceIdsShared NO

RealtimeSessionCreateResponse

Nuova configurazione di sessione in tempo reale con una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto.

Nome TIPO Descrzione Obbligatorio Default
segreto_cliente oggetto Chiave temporanea restituita dall'API.
└─ scadenza_a numero intero Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto.
NO
└─ valore corda Chiave temporanea utilizzabile negli ambienti client per autenticare le connessioni all'API realtime. Usare questa opzione negli ambienti lato client anziché in un token API standard, che deve essere usato solo sul lato server.
NO
input_audio_format corda Formato dell'audio di input. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
NO
input_audio_transcription oggetto Configurazione per la trascrizione audio di input, per impostazione predefinita è disattivata e può essere impostata su null per disattivarla una volta attivata. La trascrizione audio di input non è nativa del modello, perché il modello usa direttamente l'audio. La trascrizione viene eseguita in modo asincrono tramite Whisper e deve essere considerata come una guida approssimativa piuttosto che come la rappresentazione evinta dal modello.
NO
└─ Modello corda Il modello da usare per la trascrizione whisper-1 è l'unico modello attualmente supportato.
NO
instructions corda Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) vengono anteposte alle chiamate del modello. Questo campo consente al client di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta (ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono sicuramente seguite dal modello, ma forniscono indicazioni al modello sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
NO
max_response_output_tokens integer o stringa Numero massimo di token di output per una singola risposta dell'assistente, incluse le chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 per limitare i token di output o inf per il numero massimo di token disponibili per un determinato modello. Il valore predefinito è inf.
NO
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
NO
output_audio_format corda Formato dell'audio di output. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
NO
temperatura numero Temperatura di campionamento per il modello, limitata a [0,6, 1,2]. Il valore predefinito è 0.8.
NO
tool_choice corda Modalità di scelta degli strumenti da parte del modello. Le opzioni sono auto, none, requiredo specificano una funzione.
NO
strumenti array Strumenti (funzioni) disponibili per il modello. NO
turn_detection oggetto Configurazione per il rilevamento dei turni. Può essere impostato su null per disattivare. La VAD server indica che il modello rileverà l'inizio e la fine del parlato in base al volume audio e che risponderà quando l'utente smette di parlare.
NO
└prefix_padding_ms numero intero Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
NO
└durata_silenzio_ms numero intero Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi, il modello risponderà più rapidamente, ma potrebbe attivarsi durante le brevi pause dell'utente.
NO
└* soglia numero Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
NO
└─ Tipo corda Tipo di rilevamento dei turni; attualmente è supportato solo server_vad.
NO
voice VoiceIdsShared NO

RealtimeTranscriptionSessionCreateRequest

Configurazione dell'oggetto della sessione di trascrizione in tempo reale.

Nome TIPO Descrzione Obbligatorio Default
includi array Set di elementi da includere nella trascrizione. Gli elementi disponibili correnti sono:
- item.input_audio_transcription.logprobs
NO
input_audio_format enum Formato dell'audio di input. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
Per pcm16, l'audio di input deve essere a 16 bit PCM a una frequenza di campionamento di 24 kHz, un singolo canale (mono) e un ordine dei byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
NO
input_audio_noise_reduction oggetto Configurazione per la riduzione del rumore audio di input. Questa opzione può essere impostata su null per disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di input prima che venga inviato a VAD e al modello.
Filtrare l'audio può migliorare l'accuratezza del rilevamento dei turni e dell'attività vocale (VAD), riducendo i falsi positivi, e le prestazioni del modello migliorando la percezione dell'audio di input.
NO
└─ Tipo enum Tipo di riduzione del rumore. near_field è per microfoni a chi parla vicino, come le cuffie, far_field è per microfoni di campo lontano come portatili o microfoni della sala riunioni.

Valori possibili: near_field, far_field
NO
input_audio_transcription oggetto Configurazione della trascrizione dell'audio di input. Il client può facoltativamente impostare la lingua e richiedere la trascrizione, offrendo indicazioni aggiuntive al servizio di trascrizione.
NO
└* lingua corda La lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
NO
└─ Modello enum Il modello da usare per la trascrizione, le opzioni correnti sono gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, e .whisper-1

Valori possibili: gpt-4o-transcribe, gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15,whisper-1
NO
└* prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli, il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
NO
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
NO
turn_detection oggetto Configurazione per il rilevamento dei turni, VAD server o VAD semantico. Può essere impostato su null per disattivare, nel qual caso il cliente deve attivare manualmente la risposta del modello.
La VAD server indica che il modello rileverà l'inizio e la fine del parlato in base al volume audio e che risponderà quando l'utente smette di parlare.
Il VAD semantico è più avanzato e usa un modello di rilevamento dei turni (in combinazione con VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta in modo dinamico un timeout in base a questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello assegnerà un punteggio a una bassa probabilità di fine turno e attenderà più a lungo affinché l'utente possa continuare a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più elevata.
NO
└create_response boolean Indica se generare o meno automaticamente una risposta quando si verifica un evento di arresto VAD. Non disponibile per le sessioni di trascrizione.
NO Vero
└─ impazienza enum Usato solo per modalità semantic_vad. Impazienza di rispondere da parte del modello. low attenderà più a lungo perché l'utente continui a parlare, high risponderà più rapidamente. auto è l'impostazione predefinita ed è equivalente a medium.

Valori possibili: low, medium, high, auto
NO
└interrupt_response boolean Indica se interrompere automaticamente qualsiasi risposta in corso con un output per la conversazione predefinita (ad esempio conversation di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione.
NO Vero
└prefix_padding_ms numero intero Usato solo per modalità server_vad. Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
NO
└durata_silenzio_ms numero intero Usato solo per modalità server_vad. Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi, il modello risponderà più rapidamente, ma potrebbe attivarsi durante le brevi pause dell'utente.
NO
└* soglia numero Usato solo per modalità server_vad. Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
NO
└─ Tipo enum Tipo di rilevamento dei turni.

Valori possibili: server_vad, semantic_vad
NO

RealtimeTranscriptionSessionCreateResponse

Nuova configurazione della sessione di trascrizione in tempo reale.

Quando viene creata una sessione nel server tramite l'API REST, l'oggetto sessione contiene anche una chiave temporanea. Il valore TTL predefinito per le chiavi è di un minuto. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.

Nome TIPO Descrzione Obbligatorio Default
segreto_cliente oggetto Chiave temporanea restituita dall'API. Presente solo quando la sessione viene creata nel server tramite l'API REST.
└─ scadenza_a numero intero Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto.
NO
└─ valore corda Chiave temporanea utilizzabile negli ambienti client per autenticare le connessioni all'API realtime. Usare questa opzione negli ambienti lato client anziché in un token API standard, che deve essere usato solo sul lato server.
NO
input_audio_format corda Formato dell'audio di input. Le opzioni disponibili sono pcm16, g711_ulaw o g711_alaw.
NO
input_audio_transcription oggetto Configurazione del modello di trascrizione.
NO
└* lingua corda La lingua dell'audio di input. Specificare il linguaggio di input nel formato ISO-639-1 (ad esempio en) migliora l'accuratezza e la latenza.
NO
└─ Modello enum Modello da usare per la trascrizione. Può essere gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 o whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
NO
└* prompt corda Testo facoltativo per guidare lo stile del modello o continuare un segmento audio precedente. La richiesta deve corrispondere alla lingua audio.
NO
modalities Il set di modalità con cui il modello può rispondere. Per disabilitare l'audio, impostarlo su ["text"].
NO
turn_detection oggetto Configurazione per il rilevamento dei turni. Può essere impostato su null per disattivare. La VAD server indica che il modello rileverà l'inizio e la fine del parlato in base al volume audio e che risponderà quando l'utente smette di parlare.
NO
└prefix_padding_ms numero intero Quantità di audio da includere prima del riconoscimento vocale rilevato da VAD (in millisecondi). Il valore predefinito è 300 ms.
NO
└durata_silenzio_ms numero intero Durata del silenzio per rilevare l'arresto vocale (in millisecondi). Il valore predefinito è 500 ms. Con valori più brevi, il modello risponderà più rapidamente, ma potrebbe attivarsi durante le brevi pause dell'utente.
NO
└* soglia numero Soglia di attivazione per VAD (da 0,0 a 1,0), il valore predefinito è 0,5. Una soglia più elevata richiederà un audio più forte per attivare il modello e quindi potrebbe offrire prestazioni migliori in ambienti rumorosi.
NO
└─ Tipo corda Tipo di rilevamento dei turni; attualmente è supportato solo server_vad.
NO

Ragionamento

Opzioni di configurazione per i modelli di ragionamento.

Nome TIPO Descrzione Obbligatorio Default
effort ReasoningEffort Vincola il lavoro sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. La riduzione del lavoro di ragionamento può tradursi in risposte più veloci e in un minor numero di token usati per il ragionamento in una risposta.
medium
summary enum Riepilogo del ragionamento eseguito dal modello. Ciò può essere utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra concise e detailed.

Valori possibili: concise, detailed
NO

ReasoningItem

Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuti del testo di ragionamento.
id corda Identificatore univoco del contenuto di ragionamento.
stato enum Stato dell'elemento. Uno tra in_progress, completed e incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.

Valori possibili: in_progress, completed, incomplete
NO
type enum Tipo dell'oggetto . Sempre reasoning.

Valori possibili: reasoning

Refusal

Rifiuto da parte del modello.

Nome TIPO Descrzione Obbligatorio Default
refusal corda Spiegazione del rifiuto da parte del modello.
type enum Tipo di rifiuto. Sempre refusal.

Valori possibili: refusal

response

Nome TIPO Descrzione Obbligatorio Default
creato_il numero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta.
id corda Identificatore univoco per questa risposta.
incomplete_details oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta.
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
instructions corda Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
NO
metadata Metadati Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
model corda Modello usato per generare le risposte.
oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.

Valori possibili: response
output array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono dalla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e presupponendo che si tratti di un assistant messaggio con il contenuto generato dal modello, è consigliabile usare la output_text proprietà in cui è supportato negli SDK.
output_text corda Proprietà utile solo SDK che contiene l'output di testo aggregato di tutti gli elementi output_text della matrice output, se presenti.
Supportato negli SDK Python e JavaScript.
NO
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo.
Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. NO
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento.
NO
stato enum Stato della generazione della risposta. Uno tra completed, failed, in_progress o incomplete.

Valori possibili: completed, failed, in_progress, incomplete
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
1
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Ulteriori informazioni:
- input e output testuali
- Output strutturati
NO
└* formato TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
NO
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti predefiniti
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
1
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
NO
usage ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.
NO
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. .
NO

ResponseAudioDeltaEvent

Generato quando è presente una risposta audio parziale.

Nome TIPO Descrzione Obbligatorio Default
delta corda Blocco di byte audio della risposta con codifica Base64.
type enum Tipo di evento. Sempre response.audio.delta.

Valori possibili: response.audio.delta

ResponseAudioDoneEvent

Generato al termine della risposta audio.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Sempre response.audio.done.

Valori possibili: response.audio.done

ResponseAudioTranscriptDeltaEvent

Generato quando è presente una trascrizione parziale dell'audio.

Nome TIPO Descrzione Obbligatorio Default
delta corda Trascrizione parziale della risposta audio.
type enum Tipo di evento. Sempre response.audio.transcript.delta.

Valori possibili: response.audio.transcript.delta

ResponseAudioTranscriptDoneEvent

Generato al termine della trascrizione audio completa.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Sempre response.audio.transcript.done.

Valori possibili: response.audio.transcript.done

ResponseCodeInterpreterCallCodeDeltaEvent

Generato quando viene aggiunto un frammento di codice parziale dall'interprete di codice.

Nome TIPO Descrzione Obbligatorio Default
delta corda Frammento di codice parziale aggiunto dall'interprete di codice.
output_index numero intero Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.code.delta.

Valori possibili: response.code_interpreter_call.code.delta

ResponseCodeInterpreterCallCodeDoneEvent

Generato quando l'output del frammento di codice viene finalizzato dall'interprete di codice.

Nome TIPO Descrzione Obbligatorio Default
codice corda Output finale del frammento di codice generato dall'interprete di codice.
output_index numero intero Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.code.done.

Valori possibili: response.code_interpreter_call.code.done

ResponseCodeInterpreterCallCompletedEvent

Generato al termine della chiamata dell'interprete del codice.

Nome TIPO Descrzione Obbligatorio Default
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
output_index numero intero Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.completed.

Valori possibili: response.code_interpreter_call.completed

ResponseCodeInterpreterCallInProgressEvent

Generato quando è in corso una chiamata a un interprete di codice.

Nome TIPO Descrzione Obbligatorio Default
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
output_index numero intero Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.in_progress.

Valori possibili: response.code_interpreter_call.in_progress

ResponseCodeInterpreterCallInterpretingEvent

Generato quando l'interprete di codice interpreta attivamente il frammento di codice.

Nome TIPO Descrzione Obbligatorio Default
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
output_index numero intero Indice dell'elemento di output in cui è in corso la chiamata dell'interprete del codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.interpreting.

Valori possibili: response.code_interpreter_call.interpreting

ResponseCompletedEvent

Generato al termine della risposta del modello.

Nome TIPO Descrzione Obbligatorio Default
response response
type enum Tipo di evento. Sempre response.completed.

Valori possibili: response.completed

ResponseContentPartAddedEvent

Generato quando viene aggiunta una nuova parte di contenuto.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte di contenuto aggiunta.
item_id corda ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
output_index numero intero Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
part OutputContent
type enum Tipo di evento. Sempre response.content_part.added.

Valori possibili: response.content_part.added

ResponseContentPartDoneEvent

Generato al termine di una parte del contenuto.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte di contenuto eseguita.
item_id corda ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
output_index numero intero Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
part OutputContent
type enum Tipo di evento. Sempre response.content_part.done.

Valori possibili: response.content_part.done

ResponseCreatedEvent

Evento generato quando viene creata una risposta.

Nome TIPO Descrzione Obbligatorio Default
response response
type enum Tipo di evento. Sempre response.created.

Valori possibili: response.created

ResponseError

Oggetto di errore restituito quando il modello non riesce a generare una risposta.

Nome TIPO Descrzione Obbligatorio Default
codice ResponseErrorCode Codice di errore per la risposta.
message corda Descrizione leggibile dell'errore.

ResponseErrorCode

Codice di errore per la risposta.

Proprietà Value
Descrizione Codice di errore per la risposta.
Tipo corda
Valori server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Generato quando si verifica un errore.

Nome TIPO Descrzione Obbligatorio Default
codice corda Codice di errore.
message corda Messaggio di errore.
param corda Parametro di errore.
type enum Tipo di evento. Sempre error.

Valori possibili: error

ResponseFailedEvent

Evento generato quando una risposta ha esito negativo.

Nome TIPO Descrzione Obbligatorio Default
response response
type enum Tipo di evento. Sempre response.failed.

Valori possibili: response.failed

ResponseFileSearchCallCompletedEvent

Generato quando viene completata una chiamata di ricerca file (risultati trovati).

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index numero intero Indice dell'elemento di output avviato dalla chiamata di ricerca file.
type enum Tipo di evento. Sempre response.file_search_call.completed.

Valori possibili: response.file_search_call.completed

ResponseFileSearchCallInProgressEvent

Generato quando viene avviata una chiamata di ricerca file.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index numero intero Indice dell'elemento di output avviato dalla chiamata di ricerca file.
type enum Tipo di evento. Sempre response.file_search_call.in_progress.

Valori possibili: response.file_search_call.in_progress

ResponseFileSearchCallSearchingEvent

Generato quando una ricerca di file è attualmente in corso.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index numero intero L'indice dell'elemento di output che la chiamata di ricerca file sta cercando.
type enum Tipo di evento. Sempre response.file_search_call.searching.

Valori possibili: response.file_search_call.searching

ResponseFunctionCallArgumentsDeltaEvent

Generato quando è presente un delta degli argomenti di chiamata di funzione parziale.

Nome TIPO Descrzione Obbligatorio Default
delta corda Delta degli argomenti di chiamata di funzione aggiunto.
item_id corda ID dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
output_index numero intero Indice dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
type enum Tipo di evento. Sempre response.function_call_arguments.delta.

Valori possibili: response.function_call_arguments.delta

ResponseFunctionCallArgumentsDoneEvent

Generato quando gli argomenti della chiamata di funzione vengono finalizzati.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Argomenti di chiamata di funzione.
item_id corda ID dell'elemento.
output_index numero intero Indice dell'elemento di output.
type enum
Valori possibili: response.function_call_arguments.done

ResponseInProgressEvent

Generato quando la risposta è in corso.

Nome TIPO Descrzione Obbligatorio Default
response response
type enum Tipo di evento. Sempre response.in_progress.

Valori possibili: response.in_progress

ResponseIncompleteEvent

L'evento che viene emesso quando una risposta si conclude come incompleta.

Nome TIPO Descrzione Obbligatorio Default
response response
type enum Tipo di evento. Sempre response.incomplete.

Valori possibili: response.incomplete

responseItemList

Elenco di elementi di risposta.

Nome TIPO Descrzione Obbligatorio Default
data array Elenco di elementi utilizzati per generare questa risposta.
first_id corda ID del primo elemento dell'elenco.
ha_di_piu boolean Indica se sono disponibili altri elementi.
last_id corda ID dell'ultimo elemento nell'elenco.
oggetto enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list

ResponseModalities

Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per far sì che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]

Nessuna proprietà definita per questo componente.

ResponseModalitiesTextOnly

Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Questa API supporterà presto altre modalità di output, tra cui audio e immagini.

Nessuna proprietà definita per questo componente.

ResponseOutputItemAddedEvent

Generato quando viene aggiunto un nuovo elemento di output.

Nome TIPO Descrzione Obbligatorio Default
oggetto OutputItem
output_index numero intero Indice dell'elemento di output aggiunto.
type enum Tipo di evento. Sempre response.output_item.added.

Valori possibili: response.output_item.added

ResponseOutputItemDoneEvent

Generato quando un elemento di output viene contrassegnato come completato.

Nome TIPO Descrzione Obbligatorio Default
oggetto OutputItem
output_index numero intero Indice dell'elemento di output contrassegnato come completato.
type enum Tipo di evento. Sempre response.output_item.done.

Valori possibili: response.output_item.done

ResponseProperties

Nome TIPO Descrzione Obbligatorio Default
instructions corda Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. In questo modo è semplice scambiare messaggi di sistema (o sviluppatore) in nuove risposte.
NO
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
NO
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per creare conversazioni a più turni. NO
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento.
NO
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Può essere un testo normale o dati JSON strutturati. Ulteriori informazioni:
- input e output testuali
- Output strutturati
NO
└* formato TextResponseFormatConfiguration Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.
NO
tool_choice ToolChoiceOptions o ToolChoiceTypes o ToolChoiceFunction Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione di una risposta. Vedere il tools parametro per informazioni su come specificare gli strumenti che il modello può chiamare.
NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. È possibile specificare lo strumento da usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti predefiniti
NO
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera le dimensioni della finestra di contesto del modello, il modello tronca la risposta per adattarsi alla finestra di contesto eliminando gli elementi di input al centro della conversazione.
- disabled (impostazione predefinita): se una risposta del modello supererà le dimensioni della finestra di contesto per un modello, la richiesta avrà esito negativo con un errore 400.

Valori possibili: auto, disabled
NO

ResponseRefusalDeltaEvent

Emesso quando è presente un testo di rifiuto parziale.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto a cui viene aggiunto il testo di rifiuto.
delta corda Testo di rifiuto aggiunto.
item_id corda ID dell'elemento di output a cui viene aggiunto il testo di rifiuto.
output_index numero intero Indice dell'elemento di output a cui viene aggiunto il testo di rifiuto.
type enum Tipo di evento. Sempre response.refusal.delta.

Valori possibili: response.refusal.delta

ResponseRefusalDoneEvent

Generato quando viene finalizzato il testo di rifiuto.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto in cui viene finalizzato il testo di rifiuto.
item_id corda ID dell'elemento di output in cui viene finalizzato il testo di rifiuto.
output_index numero intero Indice dell'elemento di output in cui viene finalizzato il testo di rifiuto.
refusal corda Il testo di rifiuto completato.
type enum Tipo di evento. Sempre response.refusal.done.

Valori possibili: response.refusal.done

responseStreamEvent

Nome TIPO Descrzione Obbligatorio Default
annotation Annotation
annotation_index numero intero Indice dell'annotazione aggiunta.
arguments corda Argomenti di chiamata di funzione.
codice corda Codice di errore.
code_interpreter_call CodeInterpreterToolCall Chiamata dello strumento per eseguire il codice.
content_index numero intero Indice della parte del contenuto in cui viene finalizzato il contenuto del testo.
delta corda Delta del testo aggiunto.
oggetto OutputItem Elemento di output contrassegnato come completato.
item_id corda ID dell'elemento di output in cui viene finalizzato il contenuto del testo.
message corda Messaggio di errore.
output_index numero intero Indice dell'elemento di output in cui viene finalizzato il contenuto del testo.
param corda Parametro di errore.
part OutputContent Parte del contenuto eseguita.
refusal corda Il testo di rifiuto completato.
response response Risposta incompleta.
Testo corda Contenuto di testo finalizzato.
type enum Tipo di evento. Sempre response.output_text.done.

Valori possibili: response.output_text.done

ResponseTextAnnotationDeltaEvent

Generato quando viene aggiunta un'annotazione di testo.

Nome TIPO Descrzione Obbligatorio Default
annotation Annotation
annotation_index numero intero Indice dell'annotazione aggiunta.
content_index numero intero Indice della parte di contenuto a cui è stata aggiunta l'annotazione del testo.
item_id corda ID dell'elemento di output a cui è stata aggiunta l'annotazione di testo.
output_index numero intero Indice dell'elemento di output a cui è stata aggiunta l'annotazione di testo.
type enum Tipo di evento. Sempre response.output_text.annotation.added.

Valori possibili: response.output_text.annotation.added

ResponseTextDeltaEvent

Generato quando è presente un delta di testo aggiuntivo.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte di contenuto a cui è stato aggiunto il delta del testo.
delta corda Delta del testo aggiunto.
item_id corda ID dell'elemento di output a cui è stato aggiunto il delta del testo.
output_index numero intero Indice dell'elemento di output a cui è stato aggiunto il delta del testo.
type enum Tipo di evento. Sempre response.output_text.delta.

Valori possibili: response.output_text.delta

ResponseTextDoneEvent

Generato quando viene finalizzato il contenuto di testo.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto in cui viene finalizzato il contenuto del testo.
item_id corda ID dell'elemento di output in cui viene finalizzato il contenuto del testo.
output_index numero intero Indice dell'elemento di output in cui viene finalizzato il contenuto del testo.
Testo corda Contenuto di testo finalizzato.
type enum Tipo di evento. Sempre response.output_text.done.

Valori possibili: response.output_text.done

ResponseUsage

Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.

Nome TIPO Descrzione Obbligatorio Default
input_tokens numero intero Numero di token di input.
output_tokens numero intero Numero di token in uscita.
output_tokens_details oggetto Dettaglio dei token di output.
└─ token_di_ragionamento numero intero Numero di token di ragionamento. NO
total_tokens numero intero Numero totale di token usati.

Screenshot

Azione screenshot.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è sempre impostata su screenshot.

Valori possibili: screenshot

Scroll

Azione di scorrimento.

Nome TIPO Descrzione Obbligatorio Default
scroll_x numero intero Distanza di scorrimento orizzontale.
scroll_y numero intero Distanza di scorrimento verticale.
type enum Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è sempre impostata su scroll.

Valori possibili: scroll
x numero intero Coordinata x in cui si è verificato lo scorrimento.
y numero intero Coordinata y in cui si è verificato lo scorrimento.

StopConfiguration

Fino a 4 sequenze in cui l'API smette di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.

Questo componente può essere uno dei seguenti:

TextResponseFormatConfiguration

Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che assicurano che il modello corrisponda allo schema JSON fornito.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.

Questo componente può essere uno dei seguenti:

TextResponseFormatJsonSchema

Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato.
NO
nome corda Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
NO
schema ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON.
rigido boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output.
Se impostato su true, il modello seguirà sempre lo schema esatto definito nel campo schema. Solo un subset di schema JSON è supportato quando strict è true.
NO Falso
type enum Tipo di formato di risposta definito. Sempre json_schema.
Valori possibili: json_schema

Strumento

Questo componente può essere uno dei seguenti:

ToolChoiceFunction

Usare questa opzione per forzare il modello a chiamare una funzione specifica.

Nome TIPO Descrzione Obbligatorio Default
nome corda Nome della funzione da chiamare.
type enum Per la chiamata di funzione, il tipo è sempre function.
Valori possibili: function

ToolChoiceOptions

Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.

required indica che il modello deve chiamare uno o più strumenti.

Proprietà Value
Descrizione Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.

required indica che il modello deve chiamare uno o più strumenti.
Tipo corda
Valori none
auto
required

ToolChoiceTypes

Indica che il modello deve usare uno strumento predefinito per generare una risposta.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di strumento ospitato che deve essere usato dal modello. I valori consentiti sono:
- file_search
- computer_use_preview

Valori possibili: file_search, computer_use_preview

TIPO

Azione per digitare del testo.

Nome TIPO Descrzione Obbligatorio Default
Testo corda Testo da digitare.
type enum Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è sempre impostata su type.

Valori possibili: type

UpdateVectorStoreFileAttributesRequest

Nome TIPO Descrzione Obbligatorio Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.

UrlCitation

Citazione per una risorsa Web usata per generare una risposta del modello.

Nome TIPO Descrzione Obbligatorio Default
end_index numero intero Indice dell'ultimo carattere della citazione URL nel messaggio.
start_index numero intero Indice del primo carattere della citazione URL nel messaggio.
title corda Titolo della risorsa Web.
type enum Tipo di citazione URL. Sempre url_citation.

Valori possibili: url_citation
URL. corda URL della risorsa Web.

VectorStoreFileAttributes

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.

Nessuna proprietà definita per questo componente.

VectorStoreFileContentResponse

Rappresenta il contenuto analizzato di un file di archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
data array Contenuto analizzato del file.
ha_di_piu boolean Indica se sono presenti più pagine di contenuto da recuperare.
next_page corda Token per la pagina successiva, se presente.
oggetto enum Il tipo di oggetto, che è sempre vector_store.file_content.page.
Valori possibili: vector_store.file_content.page

VectorStoreSearchRequest

Nome TIPO Descrzione Obbligatorio Default
filters ComparisonFilter o CompoundFilter Filtro da applicare in base agli attributi del file. NO
max_num_risultati numero intero Il numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 (estremi inclusi). NO 10
query stringa o matrice Stringa di interrogazione per una ricerca
opzioni_di_classifica oggetto Opzioni di classificazione per la ricerca. NO
└* ranker enum Valori possibili: auto, default-2024-11-15 NO
└─ soglia_punteggio numero NO 0
rewrite_query boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. NO Falso

VectorStoreSearchResultContentObject

Nome TIPO Descrzione Obbligatorio Default
Testo corda Contenuto di testo restituito dalla ricerca.
type enum Tipo di contenuto.
Valori possibili: text

VectorStoreSearchResultItem

Nome TIPO Descrzione Obbligatorio Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.
contenuto array Sezioni di contenuto dal file.
ID del file corda ID del file dell'archivio vettoriale.
filename corda Nome del file dell'archivio vettoriale.
Punteggio numero Punteggio di somiglianza per il risultato.

VectorStoreSearchResultsPage

Nome TIPO Descrzione Obbligatorio Default
data array Elenco di elementi dei risultati della ricerca.
ha_di_piu boolean Indica se sono presenti più risultati da recuperare.
next_page corda Token per la pagina successiva, se presente.
oggetto enum Il tipo di oggetto, che è sempre vector_store.search_results.page.
Valori possibili: vector_store.search_results.page
search_query array

VoiceIdsShared

Nessuna proprietà definita per questo componente.

Wait

Azione di attesa.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è sempre impostata su wait.

Valori possibili: wait

ReasoningEffort

Vincola il lavoro sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium e high. La riduzione del lavoro di ragionamento può tradursi in risposte più veloci e in un minor numero di token usati per il ragionamento in una risposta.

Proprietà Value
Descrizione Vincola il lavoro sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. La riduzione del lavoro di ragionamento può tradursi in risposte più veloci e in un minor numero di token usati per il ragionamento in una risposta.
Tipo corda
Predefinita medium
Valori low
medium
high

errorEvent

Si verifica in caso di errore. Ciò può verificarsi a causa di un errore interno del server o di un timeout.

Nome TIPO Descrzione Obbligatorio Default
data error
evento corda

Enumerazione evento: ErrorEventEnum

Value Descrzione
Errore

doneEvent

Si verifica al termine di uno streaming.

Nome TIPO Descrzione Obbligatorio Default
data corda
evento corda

Event Enum: DoneEventEnum

Value Descrzione
Operazione completata

Enumerazione dati: DoneEventDataEnum

Value Descrzione
[DONE]

Passaggi successivi

Informazioni sui modelli e sull'ottimizzazione con l'API REST. Altre informazioni sui modelli sottostanti che alimentano Azure OpenAI.