Condividi tramite


Modelli del Servizio OpenAI di Azure

Il servizio Azure OpenAI è basato su un set di modelli diversificato con funzionalità e punti di prezzo diversi. La disponibilità dei modelli varia in base all'area e al cloud. Per la disponibilità del modello di Azure per enti pubblici, fare riferimento al Servizio OpenAI di Azure per enti pubblici.

Modelli Descrizione
o1-preview e o1-mini Modelli di accesso limitato, appositamente progettati per affrontare le attività di ragionamento e risoluzione dei problemi con maggiore attenzione e capacità.
GPT-4o & GPT-4o mini & GPT-4 Turbo I modelli OpenAI più recenti con supporto per Azure con versioni non crittografate, che possono accettare sia testo che immagini come input.
Audio GPT-4o Modello GPT-4o che supporta interazioni conversazionali a bassa latenza, "riconoscimento vocale, riconoscimento vocale".
GPT-4 Un set di modelli migliore rispetto a GPT-3.5 e in grado di comprendere e generare linguaggio naturale e codice.
GPT-3.5 Un set di modelli migliore rispetto a GPT-3 e in grado di comprendere e generare linguaggio naturale e codice.
Incorporamenti Un set di modelli in grado di convertire il testo in formato vettoriale numerico per facilitare la similarità del testo.
DALL-E Serie di modelli che possono generare immagini originali dal linguaggio naturale.
Whisper Serie di modelli in anteprima che possono trascrivere e tradurre la voce in testo.
Sintesi vocale (anteprima) Serie di modelli in anteprima in grado di sintetizzare il testo in voce.

Accesso limitato a o1-anteprima e o1-mini modelli

I modelli Azure OpenAI o1-preview e o1-mini sono progettati nello specifico per gestire i compiti di problem-solving e ragionamento con attenzione e capacità migliorate. Questi modelli dedicano più tempo all'elaborazione e comprensione delle richieste degli utenti, rafforzando al contempo aree come scienze, codifica e matematica rispetto alle iterazioni precedenti.

Model ID Descrizione Richiesta max (token) Dati di training (fino a)
o1-preview (2024-09-12) Il modello più idoneo nella serie o1, offrendo capacità di ragionamento avanzate. Input: 128.000
Output: 32.768
Ott. 2023
o1-mini (2024-09-12) Un'opzione più veloce e più conveniente nella serie o1, ideale per la codifica delle attività che richiedono velocità e un consumo di risorse inferiore. Input: 128.000
Output: 65.536
Ott. 2023

Disponibilità

I o1-preview modelli e o1-mini sono ora disponibili per l'accesso alle API e la distribuzione del modello. La registrazione è obbligatoria e l'accesso verrà concesso in base ai criteri di idoneità di Microsoft.

Richiesta di accesso: domanda per il modello con accesso limitato

Dopo aver concesso l'accesso, sarà necessario creare una distribuzione per ogni modello.

Supporto dell'API

Il supporto per i modelli di serie o1 è stato aggiunto nella versione 2024-09-01-previewdell'API .

Il max_tokens parametro è stato deprecato e sostituito con il nuovo max_completion_tokens parametro. I modelli di serie o1 funzioneranno solo con il max_completion_tokens parametro .

Utilizzo

Questi modelli non supportano attualmente lo stesso set di parametri di altri modelli che usano l'API di completamento della chat. Attualmente è supportato solo un subset molto limitato, pertanto i parametri comuni come temperature, top_p, non sono disponibili e includerli causeranno l'esito negativo della richiesta. o1-preview e o1-mini i modelli non accetteranno anche il ruolo messaggio di sistema come parte della matrice di messaggi.

Potrebbe essere necessario aggiornare la versione della libreria Python OpenAI per sfruttare i vantaggi del nuovo max_completion_tokens parametro.

pip install openai --upgrade

Se non si ha ancora una volta usato Microsoft Entra ID per l'autenticazione, vedere How to configure Azure OpenAI Service with Microsoft Entra ID authentication (Come configurare il servizio Azure OpenAI con l'autenticazione microsoft Entra ID).

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Aree di disponibilità

Disponibile per la distribuzione standard e globale negli Stati Uniti orientali, Stati Uniti orientali 2, Stati Uniti centro-settentrionali, Stati Uniti centro-meridionali, Svezia centrale, Stati Uniti occidentali e Stati Uniti occidentali3 per i clienti approvati.

Audio GPT-4o

Il gpt-4o-realtime-preview modello fa parte della famiglia di modelli GPT-4o e supporta interazioni conversazionali a bassa latenza, "riconoscimento vocale, riconoscimento vocale". L'audio GPT-4o è progettato per gestire interazioni conversazionali in tempo reale e a bassa latenza, rendendolo ideale per agenti di supporto, assistenti, traduttori e altri casi d'uso che necessitano di una risposta elevata con un utente.

L'audio GPT-4o è disponibile nelle aree Stati Uniti orientali 2 (eastus2) e Svezia centrale (swedencentral). Per usare l'audio GPT-4o, è necessario creare o usare una risorsa esistente in una delle aree supportate.

Dopo aver creato la risorsa, è possibile distribuire il modello audio GPT-4o. Se si esegue una distribuzione a livello di codice, il nome del modello è gpt-4o-realtime-preview. Per altre informazioni su come usare l'audio GPT-4o, vedere la documentazione audio GPT-4o.

Nella tabella seguente sono disponibili informazioni dettagliate sui token di richiesta massimi e sui dati di training.

Model ID Descrizione Richiesta max (token) Dati di training (fino a)
gpt-4o-realtime-preview (10-01-preview 2024)
Audio GPT-4o
Modello audio per l'elaborazione audio in tempo reale Input: 128.000
Output: 4.096
Ott. 2023

GPT-4o e GPT-4 Turbo

GPT-4o integra testo e immagini in un singolo modello, consentendo di gestire più tipi di dati contemporaneamente. Questo approccio multidimensionale migliora l'accuratezza e la velocità di risposta nelle interazioni tra computer umani. GPT-4o ha le stesse prestazioni di GPT-4 Turbo in attività con testo e codice in inglese, ma offre prestazioni superiori nelle altre lingue e nelle attività di visione, impostando nuovi benchmark per le funzionalità di intelligenza artificiale.

Come si accede ai mini modelli GPT-4o e GPT-4o?

GPT-4o e GPT-4o mini sono disponibili per la distribuzione di modelli standard e standard-globali.

È necessario creare o usare una risorsa esistente in un standard supportato o l'area standard globale in cui è disponibile il modello.

Dopo aver creato la risorsa, è possibile distribuire i modelli GPT-4o. Se si esegue una distribuzione a livello di codice, i nomi dei modelli sono:

  • gpt-4o Versione 2024-08-06
  • gpt-4o, Versione 2024-05-13
  • gpt-4o-mini Versione 2024-07-18

GPT-4 Turbo

GPT-4 Turbo è un modello bidirezionale di grandi dimensioni (accetta cioè input di testo o immagine e genera testo) in grado di risolvere problemi difficili con maggiore accuratezza rispetto ai modelli precedenti di OpenAI. Come GPT-3.5 Turbo e i modelli GPT-4 precedenti, GPT-4 Turbo è ottimizzato per la chat e funziona bene per le attività di completamento tradizionali.

La versione con disponibilità generale più recente di GPT-4 Turbo è:

  • gpt-4 Versione: turbo-2024-04-09

Questa è la sostituzione per i modelli di anteprima seguenti:

  • gpt-4 Versione: 1106-Preview
  • gpt-4 Versione: 0125-Preview
  • gpt-4 Versione: vision-preview

Differenze tra i modelli OpenAI e Azure OpenAI GPT-4 Turbo GA

  • La versione di OpenAI del modello turbo 0409 più recente supporta la modalità JSON e la chiamata di funzione per tutte le richieste di inferenza.
  • La versione di OpenAI di Azure dell'ultima turbo-2024-04-09 attualmente non supporta l'uso della modalità JSON e della chiamata di funzione quando si effettuano richieste di inferenza con input di immagine (visione). Le richieste di input basate su testo (richieste senza image_url e immagini inline) supportano la modalità JSON e le chiamate di funzione.

Differenze rispetto a gpt-4 vision-preview

  • L'integrazione dei miglioramenti specifici di Visione di Azure per intelligenza artificiale con GPT-4 Turbo con Visione non è supportata per la gpt-4 Versione: turbo-2024-04-09. Sono inclusi il riconoscimento ottico dei caratteri (OCR), il grounding degli oggetti, le richieste video e una migliore gestione dei dati con le immagini.

Disponibilità gestita con provisioning di GPT-4 Turbo

  • gpt-4 Versione: turbo-2024-04-09 è disponibile sia per le distribuzioni standard che per le distribuzioni con provisioning. Attualmente la versione con provisioning di questo modello non supporta le richieste di inferenza di immagini/visione. Le distribuzioni con provisioning di questo modello accettano solo input di testo. Le distribuzioni di modelli standard accettano richieste di inferenza di testo e immagine/visione.

Distribuzione della disponibilità generale di GPT-4 Turbo con Visione

Per distribuire il modello con disponibilità generale dall'interfaccia utente di Studio, selezionare GPT-4 e quindi scegliere la versione turbo-2024-04-09 dal menu a discesa. La quota predefinita per il modello di gpt-4-turbo-2024-04-09 corrisponderà alla quota corrente per GPT-4-Turbo. Vedere i limiti di quota a livello di area.

GPT-4

GPT-4 è il predecessore di GPT-4 Turbo. Entrambi i modelli GPT-4 e GPT-4 Turbo hanno un nome di modello di base gpt-4. È possibile distinguere tra i modelli GPT-4 e Turbo esaminando la versione del modello.

  • gpt-4 Versione 0314
  • gpt-4 Versione 0613
  • gpt-4-32k Versione 0613

È possibile visualizzare la lunghezza del contesto del token supportata da ogni modello nella tabella di riepilogo del modello.

Modelli GPT-4 e GPT-4 Turbo

  • Questi modelli possono essere usati solo con l'API Chat Completion.

Vedere Versioni del modello per informazioni su come il Servizio OpenAI di Azure gestisce gli aggiornamenti delle versioni del modello e Uso dei modelli per informazioni su come visualizzare e configurare le impostazioni della versione del modello delle distribuzioni GPT-4.

Model ID Descrizione Richiesta max (token) Dati di training (fino a)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Modello GA di grandi dimensioni più recente
- Output strutturati
- Elaborazione di testo e immagini
- Modalità JSON
- chiamata di funzioni parallele
- Maggiore precisione e velocità di risposta
- Parità con il testo inglese e le attività di codifica rispetto a GPT-4 Turbo con Visione
- Prestazioni superiori nelle lingue diverse dall'inglese e nelle attività di visione
Input: 128.000
Output: 16,384
Ott. 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
Modello GA di piccole dimensioni più recente
- Modello veloce, economico e in grado di supportare la sostituzione dei modelli della serie GPT-3.5 Turbo.
- Elaborazione di testo e immagini
- Modalità JSON
- chiamata di funzioni parallele
Input: 128.000
Output: 16,384
Ott. 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
Testo, elaborazione di immagini
- Modalità JSON
- chiamata di funzioni parallele
- Maggiore precisione e velocità di risposta
- Parità con il testo inglese e le attività di codifica rispetto a GPT-4 Turbo con Visione
- Prestazioni superiori nelle lingue diverse dall'inglese e nelle attività di visione
Input: 128.000
Output: 4.096
Ott. 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo con Visione
Nuovo modello di disponibilità generale
- Sostituzione di tutti i modelli di anteprima GPT-4 precedenti (vision-preview, 1106-Preview, 0125-Preview).
- La disponibilità delle funzionalità è attualmente diversa a seconda del metodo di input e del tipo di distribuzione.
Input: 128.000
Output: 4.096
Dic. 2023
gpt-4 (0125-Anteprima)*
Anteprima di GPT-4 Turbo
Modello di anteprima
-Sostituisce 1106-Anteprima
- Prestazioni migliori per la generazione di codice
- Riduce i casi in cui il modello non completa un'attività
- Modalità JSON
- chiamata di funzioni parallele
- output riproducibile (anteprima)
Input: 128.000
Output: 4.096
Dic. 2023
gpt-4 (vision-preview)
Anteprima di GPT-4 Turbo con Visione
Modello di anteprima
- Accetta input di testo e immagine.
- Supporta i miglioramenti
- Modalità JSON
- chiamata di funzioni parallele
- output riproducibile (anteprima)
Input: 128.000
Output: 4.096
Apr. 2023
gpt-4 (1106-Preview)
Anteprima di GPT-4 Turbo
Modello di anteprima
- Modalità JSON
- chiamata di funzioni parallele
- output riproducibile (anteprima)
Input: 128.000
Output: 4.096
Apr. 2023
gpt-4-32k (0613) Modello di disponibilità generale meno recente
- Chiamata di funzioni di base con strumenti
32.768 Settembre 2021
gpt-4 (0613) Modello di disponibilità generale meno recente
- Chiamata di funzioni di base con strumenti
8,192 Settembre 2021
gpt-4-32k(0314) Modello di disponibilità generale meno recente
- Informazioni sul ritiro
32.768 Settembre 2021
gpt-4 (0314) Modello di disponibilità generale meno recente
- Informazioni sul ritiro
8,192 Settembre 2021

Attenzione

Non è consigliabile usare modelli in anteprima nell'ambiente di produzione. Tutte le distribuzioni dei modelli di anteprima verranno aggiornate a versioni di anteprima future o alla versione disponibile a livello generale stabile più recente. I modelli designati in anteprima non seguono il ciclo di vita standard del modello OpenAI di Azure.

  • GPT-4 versione 0125-preview è una versione aggiornata dell'anteprima GPT-4 Turbo rilasciata in precedenza come versione 1106-preview.
  • GPT-4 versione 0125-preview completa attività come la generazione di codice in modo più completo rispetto a gpt-4-1106-preview. Per questo motivo, a seconda dell'attività, i clienti potrebbero scoprire che GPT-4-0125-preview genera più output rispetto a gpt-4-1106-preview. È consigliabile che i clienti confrontino gli output del nuovo modello. GPT-4-0125-preview risolve anche dei bug in gpt-4-1106-preview con la gestione UTF-8 per lingue non inglesi.
  • La versione GPT-4 turbo-2024-04-09 è la versione con disponibilità generale più recente e sostituisce 0125-Preview, 1106-preview e vision-preview.

Importante

Le versioni 1106-PreviewGPT-4 (gpt-4) , 0125-Previewe vision-preview verranno aggiornate con una versione stabile di gpt-4 in futuro.

  • Le distribuzioni di gpt-4 versioni 1106-Preview, 0125-Previewe vision-preview impostate su "Aggiornamento automatico per impostazione predefinita" e "Aggiorna alla scadenza" inizieranno a essere aggiornate dopo il rilascio della versione stabile. Per ogni distribuzione, viene eseguito un aggiornamento della versione del modello senza interruzioni nel servizio per le chiamate API. Gli aggiornamenti vengono gestiti in base all'area e il processo di aggiornamento completo richiederà 2 settimane.
  • Le distribuzioni di gpt-4 versioni 1106-Preview, 0125-Previewe vision-preview impostate su "Nessun aggiornamento automatico" non verranno aggiornate e smetteranno di funzionare quando la versione di anteprima viene aggiornata nell'area. Per altre informazioni sulla tempistica dell'aggiornamento, vedere Ritiri e deprecazione del modello OpenAI di Azure .

GPT-3.5

I modelli GPT-3.5 possono comprendere e generare codice o linguaggio naturale. Il modello più efficiente e conveniente in termini di costi della famiglia GPT-3.5 è GPT-3.5 Turbo, ottimizzato per la chat e in grado di funzionare bene anche per le attività di completamento tradizionali. GPT-3.5 Turbo è disponibile per l'uso con l'API Completamento chat. GPT-3.5 Turbo Instruct offre funzionalità simili a text-davinci-003 usando l'API Completamenti anziché l'API Completamento chat. È consigliabile usare i modelli GPT-3.5 Turbo e GPT-3.5 Turbo Instruct rispetto ai modelli GPT-3.5 e GPT-3.5 legacy.

Model ID Descrizione Richiesta max (token) Dati di training (fino a)
gpt-35-turbo (0125) NEW Modello di disponibilità generale più recente
- Modalità JSON
- chiamata di funzioni parallele
- output riproducibile (anteprima)
- Maggiore accuratezza nella risposta nei formati richiesti.
- Correzione di un bug che causava un problema di codifica del testo per le chiamate di funzione non in lingua inglese.
Input: 16.385
Output: 4.096
Settembre 2021
gpt-35-turbo (1106) Modello di disponibilità generale meno recente
- Modalità JSON
- chiamata di funzioni parallele
- output riproducibile (anteprima)
Input: 16.385
Output: 4.096
Settembre 2021
gpt-35-turbo-instruct (0914) Solo endpoint di completamenti
- Sostituzione dei modelli di completamenti legacy
4.097 Settembre 2021
gpt-35-turbo-16k (0613) Modello di disponibilità generale meno recente
- Chiamata di funzioni di base con strumenti
16,384 Settembre 2021
gpt-35-turbo (0613) Modello di disponibilità generale meno recente
- Chiamata di funzioni di base con strumenti
4.096 Settembre 2021
gpt-35-turbo1 (0301) Modello di disponibilità generale meno recente
- Informazioni sul ritiro
4.096 Settembre 2021

Per altre informazioni su come interagire con GPT-3.5 Turbo e l'API Chat Completions, vedere le procedure dettagliate.

1 Questo modello accetterà richieste > 4.096 token. Non è consigliabile superare il limite di 4.096 token di input perché la versione più recente del modello è limitata a 4.096 token. Se si verificano problemi quando si superano 4.096 token di input con questo modello, questa configurazione non è ufficialmente supportata.

Incorporamenti

text-embedding-3-large è il modello di incorporamento più recente e più idoneo. L'aggiornamento tra modelli di incorporamento non è possibile. Per passare dall'uso di text-embedding-ada-002 a text-embedding-3-large è necessario generare nuovi incorporamenti.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

Nei test, OpenAI segnala che sia i modelli di incorporamenti di terze dimensioni che quelli di terza generazione offrono prestazioni migliori per il recupero in più lingue con il benchmark MIRACL, mantenendo al tempo stesso prestazioni ottime per le attività in inglese con il benchmark MTEB.

Benchmark di valutazione text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
Media MIRACL 31.4 44.0 54.9
Media MTEB 61.0 62,3 64.6

I modelli di incorporamento di terza generazione supportano la riduzione delle dimensioni dell'incorporamento tramite un nuovo parametro dimensions. In genere, gli incorporamenti di dimensioni maggiori sono più costosi dal punto di vista di calcolo, memoria e archiviazione. La possibilità di regolare il numero di dimensioni consente un maggiore controllo sui costi e sulle prestazioni complessivi. Il parametro dimensions non è supportato in tutte le versioni della libreria Python OpenAI 1.x, per sfruttare questo parametro, è consigliabile eseguire l'aggiornamento alla versione più recente: pip install openai --upgrade.

Il test di benchmark MTEB di OpenAI ha rilevato che anche quando le dimensioni del modello di terza generazione sono ridotte a meno di text-embeddings-ada-002 1.536 dimensioni le prestazioni rimangono leggermente migliori.

DALL-E

I modelli DALL-E generano immagini dai prompt di testo forniti dall'utente. DALL-E 3 è disponibile a livello generale per l'uso con le API REST. DALL-E 2 e DALL-E 3 con SDK client sono in anteprima.

Whisper

I modelli Whisper possono essere usati per il riconoscimento vocale.

È anche possibile usare il modello Whisper tramite l'API trascrizione batch di Voce di Azure AI. Per altre informazioni sull'uso di Riconoscimento vocale per Voce di Azure AI, vedere Che cos'è il modello Whisper? Servizio OpenAI di Azure.

Sintesi vocale (anteprima)

I modelli OpenAI di sintesi vocale, attualmente in anteprima, possono essere usati per sintetizzare il testo in voce.

È anche possibile usare il testo OpenAI per le voci della sintesi vocale tramite Voce di Azure AI. Per altre informazioni, vedere la guida Voci di sintesi vocale di OpenAI via Servizio OpenAI di Azure o via Voce di Azure AI.

Tabella di riepilogo dei modelli e disponibilità dell'area

Modelli per tipo di distribuzione

OpenAI di Azure offre ai clienti opzioni per la struttura di hosting che si adattano ai criteri di business e di utilizzo. Il servizio offre due tipi principali di distribuzione:

  • Standard è disponibile con un'opzione di distribuzione globale, instradando il traffico a livello globale per offrire una velocità effettiva più elevata.
  • Il provisioning è disponibile anche con un'opzione di distribuzione globale che consente ai clienti di acquistare e distribuire unità elaborate con provisioning nell'infrastruttura globale di Azure.

Tutte le distribuzioni possono eseguire esattamente le stesse operazioni di inferenza, ma la fatturazione, la scalabilità e le prestazioni sono sostanzialmente diverse. Per altre informazioni sui tipi di distribuzione OpenAI di Azure, vedere la guida ai tipi di distribuzione.

Disponibilità del modello standard globale

Area o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-realtime-preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
brazilsouth - - - -
canadaeast - - - -
eastus -
eastus2
francecentral - - - -
germanywestcentral - - - -
japaneast - - - -
koreacentral - - - -
northcentralus -
norwayeast - - - -
polandcentral - - - -
southafricanorth - - - -
Stati Uniti centro-meridionali -
southindia - - - -
spaincentral - - -
Svezia centrale
Svizzera settentrionale - - - -
uksouth - - - -
westeurope - - - -
westus -
westus3 -

Questa tabella non include informazioni sulla disponibilità a livello di area. Per queste informazioni, vedere la sezione relativa all'ottimizzazione.

Modelli standard per endpoint

Completamenti della chat

Area o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
eastus - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
japaneast - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
Stati Uniti centro-meridionali - - - - - - -
southindia - - - - - - - - - - - - - -
Svezia centrale - - -
Svizzera settentrionale - - - - - - - - - - -
uksouth - - - - - - - - -
westeurope - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

Disponibilità dei modelli GPT-4 e GPT-4 Turbo

Selezionare l'accesso al cliente

Oltre alle aree precedenti, disponibili per tutti i clienti OpenAI di Azure, è stato concesso ad alcuni clienti preesistenti l'accesso alle versioni di GPT-4 in aree aggiuntive:

Modello Paese
gpt-4 (0314)
gpt-4-32k (0314)
Stati Uniti orientali
Francia centrale
Stati Uniti centro-meridionali
Regno Unito meridionale
gpt-4 (0613)
gpt-4-32k (0613)
Stati Uniti orientali
Stati Uniti orientali 2
Giappone orientale
Regno Unito meridionale

Modelli GPT-3.5

Vedere Versioni del modello per informazioni su come il Servizio OpenAI di Azure gestisce gli aggiornamenti delle versioni del modello e Uso dei modelli per informazioni su come visualizzare e configurare le impostazioni della versione del modello delle distribuzioni GPT-3.5.

Ottimizzazione dei modelli

gpt-35-turbo - L'ottimizzazione di questo modello è limitata a un subset di aree e non è disponibile in ogni area in cui è disponibile il modello di base.

Model ID Ottimizzazione delle aree Richiesta max (token) Dati di training (fino a)
babbage-002 Stati Uniti centro-settentrionali
Svezia centrale
Svizzera occidentale
16,384 Settembre 2021
davinci-002 Stati Uniti centro-settentrionali
Svezia centrale
Svizzera occidentale
16,384 Settembre 2021
gpt-35-turbo (0613) Stati Uniti Orientali 2
Stati Uniti centro-settentrionali
Svezia centrale
Svizzera occidentale
4.096 Settembre 2021
gpt-35-turbo (1106) Stati Uniti Orientali 2
Stati Uniti centro-settentrionali
Svezia centrale
Svizzera occidentale
Input: 16.385
Output: 4.096
Settembre 2021
gpt-35-turbo (0125) Stati Uniti Orientali 2
Stati Uniti centro-settentrionali
Svezia centrale
Svizzera occidentale
16.385 Settembre 2021
gpt-4 (0613) 1 Stati Uniti centro-settentrionali
Svezia centrale
8192 Settembre 2021
gpt-4o-mini 1 (2024-07-18) Stati Uniti centro-settentrionali
Svezia centrale
Input: 128.000
Output: 16,384
Lunghezza del contesto di esempio di training: 64.536
Ott. 2023
gpt-4o 1 (2024-08-06) Stati Uniti Orientali 2
Stati Uniti centro-settentrionali
Svezia centrale
Input: 128.000
Output: 16,384
Lunghezza del contesto di esempio di training: 64.536
Ott. 2023

1 GPT-4 è attualmente disponibile in anteprima pubblica.

Assistenti (anteprima)

Per gli assistenti è necessaria la combinazione di un modello supportato e di un'area supportata. Alcuni strumenti e funzionalità richiedono i modelli più recenti. I modelli seguenti sono disponibili nell'API Assistants, NELL'SDK e in Azure AI Studio. La tabella seguente è relativa al pagamento in base al consumo. Per informazioni sulla disponibilità di unità elaborate con provisioning (PTU), vedere Velocità effettiva con provisioning. I modelli e le aree elencati possono essere usati con Assistenti v1 e v2. È possibile usare i modelli standard globali se sono supportati nelle aree elencate di seguito.

Paese gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Australia orientale
Stati Uniti orientali
Stati Uniti orientali 2
Francia centrale
Giappone orientale
Norvegia orientale
Svezia centrale
Regno Unito meridionale
Stati Uniti occidentali
Stati Uniti occidentali 3

Ritiro del modello

Per le informazioni più recenti sui ritiri dei modelli, vedere la guida al ritiro del modello.

Passaggi successivi