Condividi tramite


Novità del servizio OpenAI di Azure

Questo articolo fornisce un riepilogo delle versioni più recenti e degli aggiornamenti principali della documentazione per Azure OpenAI.

Ottobre 2024

NUOVO tipo di distribuzione standard della zona dati

Le distribuzioni standard della zona dati sono disponibili nella stessa risorsa OpenAI di Azure di tutti gli altri tipi di distribuzione OpenAI di Azure, ma consentono di sfruttare l'infrastruttura globale di Azure per instradare dinamicamente il traffico al data center all'interno della zona dati definita da Microsoft con la migliore disponibilità per ogni richiesta. Lo standard della zona dati offre quote predefinite più elevate rispetto ai tipi di distribuzione basati sull'area geografica di Azure. Le distribuzioni standard della zona dati sono supportate nei gpt-4o-2024-08-06modelli , gpt-4o-2024-05-13e gpt-4o-mini-2024-07-18 .

Per altre informazioni, vedere la guida ai tipi di distribuzione.

Global Batch GA

Azure OpenAI global batch è ora disponibile a livello generale.

L'API Batch OpenAI di Azure è progettata per gestire in modo efficiente le attività di elaborazione su larga scala e con grandi volumi. Elaborare gruppi asincroni di richieste con quota separata, con turnaround di destinazione di 24 ore, a un costo inferiore del 50% rispetto allo standard globale. Con l'elaborazione in batch, anziché inviare una richiesta alla volta si inviano diverse richieste in un singolo file. Le richieste in batch globale hanno una quota di token accodata separata evitando eventuali interruzioni dei carichi di lavoro online.

I principali casi d'uso sono:

  • Elaborazione dei dati su larga scala: analizzare rapidamente grandi set di dati in parallelo.

  • Generazione di contenuti: creare grandi volumi di testo, ad esempio descrizioni di prodotti o articoli.

  • Revisione e riepilogo dei documenti: automatizzare la revisione e il riepilogo dei documenti lunghi.

  • Automazione del supporto tecnico per i clienti: gestire contemporaneamente numerose query per risposte più veloci.

  • Estrazione e analisi dei dati: estrarre e analizzare informazioni da grandi quantità di dati non strutturati.

  • Attività di elaborazione del linguaggio naturale (NLP): eseguire attività come l'analisi o la traduzione del sentiment su set di dati di grandi dimensioni.

  • Marketing e personalizzazione: genera contenuti e raccomandazioni personalizzati su larga scala.

Per altre informazioni su come iniziare a usare le distribuzioni batch globali.

Accesso limitato a o1-anteprima e o1-mini modelli

I o1-preview modelli e o1-mini sono ora disponibili per l'accesso alle API e la distribuzione del modello. La registrazione è obbligatoria e l'accesso verrà concesso in base ai criteri di idoneità di Microsoft.

Richiesta di accesso: domanda per il modello con accesso limitato

Ai clienti che sono già stati approvati e che hanno accesso al modello tramite il playground per l'accesso anticipato non è necessario applicare di nuovo, verrà concesso automaticamente l'accesso all'API. Dopo aver concesso l'accesso, sarà necessario creare una distribuzione per ogni modello.

Supporto dell'API:

Il supporto per i modelli di serie o1 è stato aggiunto nella versione 2024-09-01-previewdell'API .

Il max_tokens parametro è stato deprecato e sostituito con il nuovo max_completion_tokens parametro. I modelli di serie o1 funzioneranno solo con il max_completion_tokens parametro .

Disponibilità dell'area:

I modelli sono disponibili per la distribuzione standard standard e globale negli Stati Uniti orientali 2 e in Svezia centrale per i clienti approvati.

Nuova API GPT-4o In tempo reale per la voce e l'anteprima pubblica dell'audio

L'audio GPT-4o di Azure OpenAI fa parte della famiglia di modelli GPT-4o che supporta interazioni conversazionali a bassa latenza, "riconoscimento vocale, riconoscimento vocale". L'API audio realtime GPT-4o è progettata per gestire interazioni conversazionali in tempo reale e a bassa latenza, rendendola ideale per i casi d'uso che coinvolgono interazioni live tra un utente e un modello, ad esempio agenti di supporto clienti, assistenti vocali e traduttori in tempo reale.

Il gpt-4o-realtime-preview modello è disponibile per le distribuzioni globali nelle aree Stati Uniti orientali 2 e Svezia centrale.

Per altre informazioni, vedere la documentazione relativa all'audio in tempo reale GPT-4o.

Aggiornamenti del supporto batch globale

Il batch globale supporta ora GPT-4o (2024-08-06). Per altre informazioni, vedere la guida introduttiva al batch globale.

Settembre 2024

Aggiornamenti dell'esperienza utente di Azure OpenAI Studio

Dal 19 settembre, quando si accederà ad Azure OpenAI Studio, per impostazione predefinita non verrà più visualizzata l'interfaccia utente legacy di Studio. Se necessario, durante le due settimane successive, sarà comunque possibile tornare all'esperienza precedente usando l'opzione Passa all'aspetto precedente nella barra superiore dell'interfaccia utente. Se si torna all'interfaccia utente legacy di Studio, sarebbe di aiuto la compilazione del modulo di feedback per segnalarci il motivo. Monitoriamo attivamente questo feedback per migliorare la nuova esperienza.

Distribuzioni con provisioning GPT-4o 2024-08-06

GPT-4o 2024-08-06 è ora disponibile per le distribuzioni con provisioning negli Stati Uniti orientali, Stati Uniti orientali 2, Stati Uniti centro-settentrionali e Svezia centrale. È disponibile anche per le distribuzioni con provisioning globale.

Per le informazioni più recenti sulla disponibilità del modello, vedere la pagina dei modelli.

NUOVO tipo di distribuzione con provisioning globale

Le distribuzioni globali sono disponibili nelle stesse risorse OpenAI di Azure dei tipi di distribuzione non globali, ma consentono di sfruttare l'infrastruttura globale di Azure per instradare dinamicamente il traffico al data center con la migliore disponibilità per ogni richiesta. Le distribuzioni con provisioning globale offrono capacità di elaborazione dei modelli riservata per una velocità effettiva elevata e prevedibile tramite l'infrastruttura globale di Azure. Le distribuzioni con provisioning globale sono supportate nei modelli gpt-4o-2024-08-06 e gpt-4o-mini-2024-07-18.

Per altre informazioni, vedere la guida ai tipi di distribuzione.

NUOVI modelli o1-preview e o1-mini disponibili per l'accesso limitato

I modelli e o1-mini OpenAI o1-preview di Azure sono progettati per affrontare le attività di ragionamento e risoluzione dei problemi con maggiore attenzione e funzionalità. Questi modelli dedicano più tempo all'elaborazione e comprensione delle richieste degli utenti, rafforzando al contempo aree come scienze, codifica e matematica rispetto alle iterazioni precedenti.

Funzionalità principali della serie o1

  • Generazione di codice complessa: in grado di generare algoritmi e gestire attività di codifica avanzate per supportare gli sviluppatori.
  • Risoluzione avanzata dei problemi: ideale per sessioni di brainstorming complete e per affrontare le sfide multiformi.
  • Confronto documenti complessi: perfetto per l'analisi di contratti, file di casi o documenti legali per identificare piccole differenze.
  • Istruzioni successive e Gestione del flusso di lavoro: particolarmente efficace per la gestione dei flussi di lavoro che richiedono contesti più brevi.

Varianti del modello

  • o1-preview: o1-preview è più in grado di supportare i modelli della serie o1.
  • o1-mini: o1-mini è più veloce e più economico dei modelli della serie o1.

Versione del modello: 2024-09-12

Richiesta di accesso: domanda per il modello con accesso limitato

Limiti

I o1 modelli di serie sono attualmente in anteprima e non includono alcune funzionalità disponibili in altri modelli, ad esempio la comprensione delle immagini e gli output strutturati disponibili nel modello GPT-4o più recente. Per molte attività, i modelli GPT-4o disponibili a livello generale potrebbero essere ancora più adatti.

Sicurezza

OpenAI ha incorporato misure di sicurezza aggiuntive nei modelli o1, incluse nuove tecniche per aiutare i modelli a rifiutare le richieste non sicure. Questi miglioramenti rendono la serie o1 uno dei modelli più robusti disponibili.

Disponibilità

o1-preview e o1-mini sono disponibili nell'area Stati Uniti orientali 2 per un accesso limitato tramite il playground per l'accesso anticipato di AI Studio. L'elaborazione dei dati per i o1 modelli può verificarsi in un'area diversa da quella in cui sono disponibili per l'uso.

Per provare i modelli o1-preview e o1-mini nel playground per l'accesso anticipato, è obbligatoria la registrazione e l'accesso verrà concesso in base ai criteri di idoneità di Microsoft.

Richiesta di accesso: domanda per il modello con accesso limitato

Una volta concesso l'accesso, sarà necessario:

  1. Passare a https://ai.azure.com/resources e selezionare una risorsa nell'area eastus2. Se non si ha una risorsa OpenAI di Azure in questa area, è necessario crearne una.
  2. Una volta eastus2 selezionata la risorsa Azure OpenAI nel pannello in alto a sinistra in Playground, selezionare Playground per l'accesso anticipato (anteprima).

Agosto 2024

Output strutturati GPT-4o 2024-08-06

Distribuzioni con provisioning GPT-4o mini

GPT-4o mini è ora disponibile per le distribuzioni con provisioning in Canada orientale, Stati Uniti orientali, Stati Uniti orientali 2, Stati Uniti centro-settentrionali e Svezia centrale.

Per le informazioni più recenti sulla disponibilità del modello, vedere la pagina dei modelli.

Ottimizzazione per GPT-4o (anteprima pubblica)

Ottimizzazione per GPT-4o è ora disponibile per Azure OpenAI in anteprima pubblica negli Stati Uniti centro-settentrionali e nella Svezia centrale.

Per altre informazioni, vedere questo post di blog.

Nuova versione dell'API - anteprima

La versione dell'API 2024-07-01-preview è la versione più recente dell'API di creazione ed inferenza del piano dati. Sostituisce la versione dell'API 2024-05-01-preview e aggiunge il supporto per:

Per altre informazioni, vedere la documentazione di riferimento

Disponibilità a livello di area GPT-4o mini

  • GPT-4o mini è attualmente disponibile per la distribuzione standard e globale nell'area Stati Uniti orientali e Svezia centrale.
  • GPT-4o mini è disponibile per la distribuzione batch globale nelle aree Stati Uniti orientali, Svezia centrale e Stati Uniti occidentali.

Guida alle valutazioni

Il modello GPT-4o più recente disponibile nel playground per l'accesso anticipato (anteprima)

Il 6 agosto 2024, OpenAI ha annunciato la versione più recente della versione del modello GPT-4o 2024-08-06 di punta. GPT-4o 2024-08-06 offre tutte le funzionalità della versione precedente e:

  • Capacità avanzata di supportare output strutturati complessi.
  • Il numero massimo di token di output è stato aumentato da 4.096 a 16.384.

I clienti di Azure possono testare GPT-4o 2024-08-06 oggi stesso nel nuovo playground per l'accesso anticipato di AI Studio (anteprima).

A differenza del precedente playground per l'accesso anticipato, il playground per l'accesso anticipato di AI Studio (anteprima) non richiede la disponibilità di una risorsa in un'area specifica.

Nota

I prompt e i completamenti eseguiti tramite il playground per l'accesso anticipato (anteprima) potrebbero essere elaborati in qualsiasi area di Azure OpenAI e sono attualmente soggetti a una richiesta di 10 al minuto per ogni limite di sottoscrizione di Azure. Questo limite potrebbe cambiare in futuro.

Il monitoraggio degli abusi del servizio OpenAI di Azure è abilitato per tutti gli utenti del playground per l'accesso anticipato, anche se approvati per la modifica. I filtri di contenuto predefiniti sono abilitati e non possono essere modificati.

Per testare GPT-4o 2024-08-06, accedere al playground per l'accesso anticipato di Azure per intelligenza artificiale (anteprima) usando questo collegamento.

Le distribuzioni batch globali sono ora disponibili

L'API Batch OpenAI di Azure è progettata per gestire in modo efficiente le attività di elaborazione su larga scala e con volumi elevati. Elaborare gruppi asincroni di richieste con quota separata, con turnaround di destinazione di 24 ore, a un costo inferiore del 50% rispetto allo standard globale. Con l'elaborazione in batch, anziché inviare una richiesta alla volta si inviano diverse richieste in un singolo file. Le richieste in batch globale hanno una quota di token accodata separata evitando eventuali interruzioni dei carichi di lavoro online.

I principali casi d'uso sono:

  • Elaborazione dei dati su larga scala: analizzare rapidamente grandi set di dati in parallelo.

  • Generazione di contenuti: creare grandi volumi di testo, ad esempio descrizioni di prodotti o articoli.

  • Revisione e riepilogo dei documenti: automatizzare la revisione e il riepilogo dei documenti lunghi.

  • Automazione del supporto tecnico per i clienti: gestire contemporaneamente numerose query per risposte più veloci.

  • Estrazione e analisi dei dati: estrarre e analizzare informazioni da grandi quantità di dati non strutturati.

  • Attività di elaborazione del linguaggio naturale (NLP): eseguire attività come l'analisi o la traduzione del sentiment su set di dati di grandi dimensioni.

  • Marketing e personalizzazione: genera contenuti e raccomandazioni personalizzati su larga scala.

Per altre informazioni su come iniziare a usare le distribuzioni batch globali.

2024 luglio 2022

GPT-4o mini è ora disponibile per l'ottimizzazione

GPT-4o mini-ottimizzazione è ora disponibile in anteprima pubblica nella Svezia centrale e negli Stati Uniti centro-settentrionali.

Lo strumento Ricerca file Assistants viene ora fatturato

Lo strumento di ricerca di file per Assistants include ora addebiti aggiuntivi per l'utilizzo. Per altre informazioni, vedere la pagina dei prezzi.

Modello mini GPT-4o disponibile per la distribuzione

GPT-4o mini è il modello Azure OpenAI più recente annunciato il 18 luglio 2024:

"GPT-4o mini consente ai clienti di offrire applicazioni straordinarie a un costo inferiore a velocità incredibile. GPT-4o mini è significativamente più intelligente rispetto a GPT-3.5 Turbo, con un punteggio dell'82% sulla misurazione di Massive Multitask Language Understanding (MMLU) rispetto al 70%, ed è più del 60% più economico.1 Il modello offre una finestra di contesto di 128K espansa e integra le migliori funzionalità multilingue di GPT-4o, portando una maggiore qualità alle lingue da tutto il mondo."

Il modello è attualmente disponibile per la distribuzione standard e globale nell'area Stati Uniti orientali.

Per informazioni sulla quota del modello, vedere la pagina su quote e limiti e per le informazioni più recenti sulla disponibilità del modello, vedere la pagina dei modelli.

Nuovi criteri di filtro dei contenuti predefiniti per l'intelligenza artificiale responsabile

Il nuovo criterio di filtro dei contenuti predefinito DefaultV2 offre le mitigazioni di sicurezza e sicurezza più recenti per la serie di modelli GPT (testo), tra cui:

  • Protezioni di prompt per attacchi jailbreak sui prompt degli utenti (filtro),
  • Rilevamento del materiale protetto per il testo (filtro) sui completamenti del modello
  • Rilevamento del materiale protetto per il codice (annotazione) sui completamenti del modello

Anche se non sono state apportate modifiche ai filtri di contenuto per le risorse e le distribuzioni esistenti (le configurazioni di filtro dei contenuti predefinite o personalizzate rimangono invariate), le nuove risorse e le distribuzioni GPT erediteranno automaticamente i nuovi criteri di filtro del contenuto DefaultV2. I clienti hanno la possibilità di passare da impostazioni predefinite di sicurezza e creare configurazioni di filtro del contenuto personalizzate.

Per altre informazioni, vedere la documentazione relativa ai criteri di sicurezza predefiniti.

Nuova versione dell'API con disponibilità generale

La versione dell'API 2024-06-01 è la versione più recente dell'API di inferenza del piano dati con disponibilità generale. Sostituisce la versione dell'API 2024-02-01 e aggiunge il supporto per:

  • incorporamenti encoding_format e parametri dimensions.
  • completamento chat logprobs e parametri top_logprobs.

Per altre informazioni, vedere la documentazione di riferimento sull'inferenza del piano dati.

Espansione delle aree disponibili per le distribuzioni standard globali di gpt-4o

GPT-4o è ora disponibile per distribuzioni standard globali in:

  • australiaeast
  • brazilsouth
  • canadaeast
  • eastus
  • eastus2
  • Git francecentral
  • germanywestcentral
  • japaneast
  • koreacentral
  • northcentralus
  • norwayeast
  • polandcentral
  • southafricanorth
  • Stati Uniti centro-meridionali
  • southindia
  • Svezia centrale
  • Svizzera settentrionale
  • uksouth
  • westeurope
  • westus
  • westus3

Per informazioni sulla quota standard globale, vedere la pagina quota e limiti.

Giugno 2024

Aggiornamenti della data di ritiro

  • Aggiornato gpt-35-turbo 0301 data di ritiro non precedente al 1° ottobre 2024.
  • Aggiornato gpt-35-turbo & gpt-35-turbo-16k0613 data di ritiro al 1° ottobre 2024.
  • Aggiornato gpt-4 & gpt-4-32k 0314 data di deprecazione al 1° ottobre 2024 e data di ritiro al 6 giugno 2025.

Fare riferimento alla nostra guida al ritiro del modello per le informazioni più recenti sulla deprecazione e sul ritiro del modello.

Fatturazione basata su token per l'ottimizzazione

  • La fatturazione per l'ottimizzazione di Azure OpenAI è ora basata sul numero di token nel file di training, anziché sul tempo di training totale trascorso. Ciò può comportare una riduzione significativa dei costi per alcune esecuzioni di training e semplifica notevolmente la stima dei costi di ottimizzazione. Per altre informazioni, è possibile consultare l'annuncio ufficiale.

GPT-4o rilasciato in nuove aree

  • GPT-4o è ora disponibile anche in:
    • Svezia centrale per la distribuzione regionale standard.
    • Australia orientale, Canada orientale, Giappone orientale, Corea centrale, Svezia centrale, Svizzera settentrionale e Stati Uniti occidentali 3 per la distribuzione con provisioning.

Per le informazioni più recenti sulla disponibilità del modello, vedere la pagina dei modelli.

Supporto della chiave gestita dal cliente per assistenti

Thread e file in Assistenti supportano ora la chiave gestita dal cliente nell'area seguente:

  • Stati Uniti occidentali 3

Maggio 2024

Distribuzioni con provisioning GPT-4o

gpt-4oVersione2024-05-13: è disponibile sia per le distribuzioni standard che per le distribuzioni con provisioning. Le distribuzioni di modelli standard e con provisioning accettano richieste di inferenza di testo e immagine/visione. Per informazioni sulla disponibilità a livello di area del modello, vedere la matrice del modello per le distribuzioni con provisioning.

Assistenti v2 (anteprima)

Un aggiornamento dell'API Assistenti è ora disponibile pubblicamente. Contiene gli aggiornamenti seguenti:

  • Strumento di ricerca file e archiviazione vettoriale
  • Completamento e supporto massimo del token di richiesta per la gestione dell'utilizzo dei token.
  • Parametro tool_choice per forzare l'assistente a usare uno strumento specificato. È ora possibile creare messaggi con il ruolo assistente per creare cronologie di conversazioni personalizzate in Thread.
  • Supporto per i parametri temperature,top_p e response_format.
  • Supporto di streaming e polling. È possibile usare le funzioni helper in Python SDK per creare esecuzioni e trasmettere risposte. Sono stati aggiunti anche helper SDK di polling per condividere gli aggiornamenti dello stato degli oggetti senza la necessità di eseguire il polling.
  • Sperimentare App per la logica e chiamata di funzioni con Azure OpenAI Studio. Importare le API REST implementate in App per la logica come funzioni e lo studio richiama automaticamente la funzione (come flusso di lavoro di App per la logica) in base alla richiesta dell'utente.
  • AutoGen by Microsoft Research offre un framework di conversazione multi-agente per consentire la creazione pratica di flussi di lavoro LLM (Large Language Model) in un'ampia gamma di applicazioni. Gli assistenti OpenAI di Azure sono ora integrati in AutoGen tramite GPTAssistantAgent, un nuovo agente sperimentale che consente di aggiungere facilmente Assistenti ai flussi di lavoro multi-agente basati su AutoGen. Ciò abilita più assistenti OpenAI di Azure che possono essere attività o domini specializzati per collaborare e affrontare attività complesse.
  • Supporto per i gpt-3.5-turbo-0125 modelli ottimizzati nelle aree seguenti:
    • Stati Uniti orientali 2
    • Svezia centrale
  • Supporto regionale esteso per:
    • Giappone orientale
    • Regno Unito meridionale
    • Stati Uniti occidentali
    • Stati Uniti occidentali 3
    • Norvegia orientale

Per altre informazioni, vedere il post di blog sugli assistenti.

Disponibilità generale del modello GPT-4o (GA)

GPT-4o ("o” sta per "omni") è il modello più recente di OpenAI lanciato il 13 maggio 2024.

  • GPT-4o integra testo e immagini in un singolo modello, consentendo di gestire più tipi di dati contemporaneamente. Questo approccio multidimensionale migliora l'accuratezza e la velocità di risposta nelle interazioni tra computer umani.
  • GPT-4o ha le stesse prestazioni di GPT-4 Turbo in attività con testo e codice in inglese, ma offre prestazioni superiori nelle altre lingue e nelle attività di visione, impostando nuovi benchmark per le funzionalità di intelligenza artificiale.

Per informazioni sulla disponibilità a livello di area del modello, vedere la pagina dei modelli.

Tipo di distribuzione standard globale (anteprima)

Le distribuzioni globali sono disponibili nelle stesse risorse OpenAI di Azure offerte non globali, ma consentono di sfruttare l'infrastruttura globale di Azure per instradare dinamicamente il traffico al data center con la migliore disponibilità per ogni richiesta. Lo standard globale fornisce la quota predefinita più elevata per i nuovi modelli ed elimina la necessità di bilanciare il carico tra più risorse.

Per altre informazioni, vedere la guida ai tipi di distribuzione.

Ottimizzazione degli aggiornamenti

Filtri di contenuto configurabili DALL-E e GPT-4 Turbo Vision GA

Creare filtri per i contenuti personalizzati per le distribuzioni DALL-E 2 e 3, GPT-4 Turbo con Visione in disponibilità generale (turbo-2024-04-09) e GPT-4o. Filtri dei contenuti

Filtro asincrono disponibile per tutti i clienti OpenAI di Azure

L'esecuzione di filtri in modo asincrono per migliorare la latenza negli scenari di streaming è ora disponibile per tutti i clienti OpenAI di Azure. Filtri dei contenuti

Protezioni delle richieste

Prompt Shields protegge le applicazioni basate su modelli OpenAI di Azure da due tipi di attacchi: attacchi diretti (jailbreak) e indiretti. Gli attacchi indiretti (noti anche come attacchi di richiesta indiretta o attacchi cross-domain prompt injection) sono un tipo di attacco sui sistemi basati su modelli di intelligenza artificiale generativi che possono verificarsi quando un'applicazione elabora informazioni che non sono state create direttamente dallo sviluppatore dell'applicazione o dall'utente. Filtri dei contenuti

Versione dell'API 2024-05-01-anteprima

Disponibilità generale del modello GPT-4 Turbo (GA)

La versione con disponibilità generale più recente di GPT-4 Turbo è:

  • gpt-4 Versione: turbo-2024-04-09

Questa è la sostituzione per i modelli di anteprima seguenti:

  • gpt-4 Versione: 1106-Preview
  • gpt-4 Versione: 0125-Preview
  • gpt-4 Versione: vision-preview

Differenze tra i modelli OpenAI e Azure OpenAI GPT-4 Turbo GA

  • La versione di OpenAI del modello turbo 0409 più recente supporta la modalità JSON e la chiamata di funzione per tutte le richieste di inferenza.
  • La versione di OpenAI di Azure dell'ultima turbo-2024-04-09 attualmente non supporta l'uso della modalità JSON e della chiamata di funzione quando si effettuano richieste di inferenza con input di immagine (visione). Le richieste di input basate su testo (richieste senza image_url e immagini inline) supportano la modalità JSON e le chiamate di funzione.

Differenze rispetto a gpt-4 vision-preview

  • L'integrazione dei miglioramenti specifici di Visione di Azure per intelligenza artificiale con GPT-4 Turbo con Visione non è supportata per la gpt-4 Versione: turbo-2024-04-09. Sono inclusi il riconoscimento ottico dei caratteri (OCR), il grounding degli oggetti, le richieste video e una migliore gestione dei dati con le immagini.

Importante

Le funzionalità di anteprima dei miglioramenti della visione, tra cui riconoscimento ottico dei caratteri (OCR), grounding di oggetti e le richieste video, verranno ritirate e non saranno più disponibili dopo l'aggiornamento di gpt-4 Versione: vision-preview a turbo-2024-04-09. Se attualmente si fa affidamento su una di queste funzionalità di anteprima, questo aggiornamento automatico del modello sarà una modifica che causa un'interruzione.

Disponibilità gestita con provisioning di GPT-4 Turbo

  • gpt-4 Versione: turbo-2024-04-09 è disponibile sia per le distribuzioni standard che per le distribuzioni con provisioning. Attualmente la versione con provisioning di questo modello non supporta le richieste di inferenza di immagini/visione. Le distribuzioni con provisioning di questo modello accettano solo input di testo. Le distribuzioni di modelli standard accettano richieste di inferenza di testo e immagine/visione.

Distribuzione della disponibilità generale di GPT-4 Turbo con Visione

Per distribuire il modello con disponibilità generale dall'interfaccia utente di Studio, selezionare GPT-4 e quindi scegliere la versione turbo-2024-04-09 dal menu a discesa. La quota predefinita per il modello di gpt-4-turbo-2024-04-09 corrisponderà alla quota corrente per GPT-4-Turbo. Vedere i limiti di quota a livello di area.

Aprile 2024

L'ottimizzazione è ora supportata in due nuove aree Stati Uniti orientali 2 e Svizzera occidentale

L'ottimizzazione è ora disponibile con il supporto per:

Stati Uniti orientali 2

  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Svizzera occidentale

  • babbage-002
  • davinci-002
  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Controllare la pagina dei modelli per ottenere le informazioni più recenti sulla disponibilità del modello e sul supporto per l'ottimizzazione in ogni area.

Esempi di training di chat a più turni

L'ottimizzazione supporta ora esempi di training di chat a più turni.

GPT-4 (0125) è disponibile per Azure OpenAI sui dati

È ora possibile usare il modello GPT-4 (0125) nelle aree disponibili con Azure OpenAI sui dati.

Marzo 2024

Rischi e monitoraggio della sicurezza in Azure OpenAI Studio

Azure OpenAI Studio offre ora una dashboard Rischi e sicurezza per ognuna delle distribuzioni che usa una configurazione di filtro contenuto. Usarlo per controllare i risultati dell'attività di filtro. È quindi possibile modificare la configurazione del filtro per soddisfare meglio le esigenze aziendali e soddisfare i principi di IA responsabile.

Usare i rischi e il monitoraggio della sicurezza

Azure OpenAI sugli aggiornamenti dei dati

  • È ora possibile connettersi a un database vettoriale Elasticsearch da usare con Azure OpenAI sui dati.
  • È possibile usare il parametro dimensione blocco durante l'inserimento dati per impostare il numero massimo di token di qualsiasi blocco di dati specificato nell'indice.

API disponibile a livello generale (GA) 2024-02-01

Questa è la versione più recente dell'API GA ed è la sostituzione della versione GA 2023-05-15 precedente. Questa versione aggiunge il supporto per le funzionalità di Disponibilità generale di Azure OpenAI più recenti, ad esempio Whisper, DALLE-3, ottimizzazione, sui dati e altro ancora.

Le funzionalità disponibili in anteprima, ad esempio Assistants, text to speech (TTS) e alcune delle origini dati "on your data", richiedono una versione dell'API di anteprima. Per altre informazioni, vedere la guida al ciclo di vita della versione dell'API.

Disponibilità generale di Whisper

Il modello di riconoscimento vocale Whisper è ora disponibile a livello generale sia per REST che per Python. Gli SDK della libreria client sono attualmente ancora in anteprima pubblica.

Provare Whisper seguendo una guida introduttiva.

Disponibilità generale DALL-E 3 (GA)

Il modello di generazione di immagini DALL-E 3 è ora disponibile a livello generale sia per REST che per Python. Gli SDK della libreria client sono attualmente ancora in anteprima pubblica.

Provare DALL-E 3 seguendo una guida introduttiva.

Nuovo supporto regionale per DALL-E 3

È ora possibile accedere a DALL-E 3 con una risorsa OpenAI di Azure nell'area di Azure East US o AustraliaEast, in aggiunta a SwedenCentral.

Deprecazione e ritiri del modello

È stata aggiunta una pagina per tenere traccia delle deprecazioni e dei ritiri del modello nel Servizio OpenAI di Azure. Questa pagina fornisce informazioni sui modelli attualmente disponibili, deprecati e ritirati.

API 2024-03-01-preview rilasciata

2024-03-01-preview ha tutte le stesse funzionalità di 2024-02-15-preview e aggiunge due nuovi parametri per gli incorporamenti:

  • encoding_format consente di specificare il formato per generare incorporamenti in float o base64. Il valore predefinito è float.
  • dimensions consente di impostare il numero di incorporamenti di output. Questo parametro è supportato solo con i modelli di incorporamento di nuova generazione: text-embedding-3-large, text-embedding-3-small. In genere, gli incorporamenti di dimensioni maggiori sono più costosi dal punto di vista di calcolo, memoria e archiviazione. La possibilità di regolare il numero di dimensioni consente un maggiore controllo sui costi e sulle prestazioni complessivi. Il dimensions parametro non è supportato in tutte le versioni della libreria Python OpenAI 1.x, per sfruttare i vantaggi di questo parametro, è consigliabile eseguire l'aggiornamento alla versione più recente: pip install openai --upgrade.

Se attualmente si usa una versione dell'API di anteprima per sfruttare le funzionalità più recenti, è consigliabile consultare l'articolo ciclo di vita della versione dell'API per tenere traccia della durata della versione dell'API corrente.

Aggiornamento ai piani di aggiornamento GPT-4-1106-Preview

L'aggiornamento della distribuzione di gpt-4 1106-Preview a gpt-4 0125-Preview pianificato per l'8 marzo 2024 non verrà più eseguito. Le distribuzioni delle versioni gpt-4 1106-Preview e 0125-Preview impostate su "Aggiornamento automatico per impostazione predefinita" e "Aggiorna alla scadenza" inizieranno a essere aggiornate dopo il rilascio di una versione stabile del modello.

Per altre informazioni sul processo di aggiornamento, vedere la pagina dei modelli.

Febbraio 2024

Modello GPT-3.5-turbo-0125 disponibile

Questo modello presenta vari miglioramenti, tra cui una maggiore precisione nella risposta nei formati richiesti e una correzione per un bug che ha causato un problema di codifica del testo per le chiamate di funzione non in lingua inglese.

Per informazioni sulla disponibilità e gli aggiornamenti a livello di area del modello, vedere la pagina dei modelli.

Modelli di incorporamento di terza generazione disponibili

  • text-embedding-3-large
  • text-embedding-3-small

Nei test, OpenAI segnala che sia i modelli di incorporamenti di terze dimensioni che quelli di terza generazione offrono prestazioni migliori per il recupero in più lingue con il benchmark MIRACL, mantenendo al tempo stesso prestazioni migliori per le attività in inglese con il benchmark MTEB, rispetto al modello text-embedding-ada-002 di seconda generazione.

Per informazioni sulla disponibilità e gli aggiornamenti a livello di area del modello, vedere la pagina dei modelli.

Consolidamento delle quote turbo GPT-3.5

Per semplificare la migrazione tra versioni diverse dei modelli GPT-3.5-Turbo (incluso 16k), verrà consolidata tutta la quota GPT-3.5-Turbo in un singolo valore di quota.

  • Tutti i clienti che hanno aumentato la quota approvata avranno una quota totale combinata che riflette gli aumenti precedenti.

  • Qualsiasi cliente il cui utilizzo totale corrente tra le versioni del modello è inferiore al valore predefinito otterrà una nuova quota totale combinata per impostazione predefinita.

Modello GPT-4-0125-preview disponibile

La versione 0125-preview del modello gpt-4 è ora disponibile nel Servizio OpenAI di Azure nelle aree Stati Uniti orientali, Stati Uniti centro-settentrionali e Stati Uniti centro-meridionali. I clienti con distribuzioni di gpt-4 versione 1106-preview verranno aggiornati automaticamente a 0125-preview nelle prossime settimane.

Per informazioni sulla disponibilità e gli aggiornamenti a livello di area del modello, vedere la pagina dei modelli.

Anteprima pubblica dell'API Assistants

Azure OpenAI supporta ora l'API che supporta i criteri di gruppo di OpenAI. Gli assistenti OpenAI di Azure (anteprima) consentono di creare assistenti di intelligenza artificiale personalizzati in base alle proprie esigenze tramite istruzioni personalizzate e strumenti avanzati come l'interprete del codice e funzioni personalizzate. Per altre informazioni, vedere:

Anteprima pubblica delle voci di sintesi vocale di OpenAI

Il Servizio OpenAI di Azure supporta ora le API di sintesi vocale con le voci di OpenAI. Ottenere testo generato dall'intelligenza artificiale a partire dal testo fornito. Per altre informazioni, vedere la guida panoramica e provare la guida introduttiva.

Nota

Voce di Azure AI per intelligenza artificiale supporta anche le voci di sintesi vocale di OpenAI. Per altre informazioni, vedere la guida Voci di sintesi vocale di OpenAI via Servizio OpenAI di Azure o via Voce di Azure AI.

Nuove funzionalità di ottimizzazione e supporto del modello

Nuovo supporto a livello di area per Azure OpenAI On Your Data

È ora possibile usare Azure OpenAI On Your Data nell'area di Azure seguente:

  • Sudafrica settentrionale

Disponibilità generale di Azure OpenAI On Your Data

Dicembre 2023

Azure OpenAI On Your Data

  • Supporto completo della VPN e dell'endpoint privato per Azure OpenAI On Your Data, incluso il supporto per la sicurezza per gli account di archiviazione, le risorse OpenAI di Azure e le risorse del servizio Ricerca intelligenza artificiale di Azure.
  • Nuovo articolo per l'uso di Azure OpenAI On Your Datain modo sicuro proteggendo i dati con reti virtuali ed endpoint privati.

GPT-4 Turbo con Visione ora disponibile

GPT-4 Turbo con Visione nel servizio Azure OpenAI è ora disponibile in anteprima pubblica. GPT-4 Turbo con Visione è un grande modello granulare (LMM) sviluppato da OpenAI in grado di analizzare le immagini e fornire risposte testuali a domande su di essi. Incorpora sia l'elaborazione del linguaggio naturale che la comprensione visiva. Con la modalità avanzata, è possibile usare le funzionalità di Visione di Azure AI per generare informazioni aggiuntive dalle immagini.

  • Esplorare le funzionalità di GPT-4 Turbo con Visione in un'esperienza senza codice usando Azure OpenAI Playground. Per altre informazioni, vedere la Guida introduttiva.
  • Il miglioramento della visione con GPT-4 Turbo con Visione è ora disponibile in Azure OpenAI Playground e include il supporto per il riconoscimento ottico dei caratteri, il supporto dell'oggetto, il supporto delle immagini per "aggiungere i dati" e il supporto per la richiesta video.
  • Effettuare chiamate all'API di chat direttamente usando l'API REST.
  • La disponibilità dell'area è attualmente limitata a SwitzerlandNorth, SwedenCentral, WestUS e AustraliaEast
  • Altre informazioni sulle limitazioni note di GPT-4 Turbo con Visione e altre domande frequenti.

Novembre 2023

Supporto di una nuova origine dati in Azure OpenAI On Your Data

  • È ora possibile usare Azure Cosmos DB per vCore e URL/indirizzi Web di MongoDB come origini dati per inserire i dati e chattare con un modello OpenAI di Azure supportato.

GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 rilasciato

Entrambi i modelli sono la versione più recente di OpenAI con istruzioni migliorate seguenti, modalità JSON, output riproducibile e chiamata di funzioni parallele.

  • GPT-4 Turbo Preview ha una finestra di contesto massima di 128.000 token e può generare 4.096 token di output. Ha i dati di training più recenti con conoscenze fino ad aprile 2023. Questo modello è in anteprima e non è consigliato per l'uso in produzione. Tutte le distribuzioni di questo modello di anteprima verranno aggiornate automaticamente dopo che la versione stabile diventa disponibile.

  • GPT-3.5-Turbo-1106 ha una finestra di contesto massima di 16.385 token e può generare 4.096 token di output.

Per informazioni sulla disponibilità a livello di area del modello, consultare la pagina dei modelli.

I modelli hanno allocazioni di quote univoche per area.

Anteprima pubblica di DALL-E 3

DALL-E 3 è il modello di generazione di immagini più recente di OpenAI. Offre una qualità avanzata delle immagini, scene più complesse e prestazioni migliorate durante il rendering del testo nelle immagini. Include anche altre opzioni relative alle proporzioni. DALL-E 3 è disponibile tramite OpenAI Studio e tramite l'API REST. La risorsa OpenAI deve trovarsi nell’area di Azure SwedenCentral.

DALL-E 3 include la riscrittura predefinita delle richieste per migliorare le immagini, ridurre la distorsione e aumentare la variazione naturale.

Provare DALL-E 3 seguendo una guida introduttiva.

Intelligenza artificiale responsabile

  • Configurabilità dei clienti espansa: tutti i clienti OpenAI di Azure possono ora configurare tutti i livelli di gravità (basso, medio, alto) per le categorie odio, violenza, sesso e autolesionismo, incluso il filtro solo di contenuti con gravità elevata. Configurare i filtri di contenuto

  • Credenziali del contenuto in tutti i modelli DALL-E: le immagini generate dall'intelligenza artificiale da tutti i modelli DALL-E ora includono credenziali digitali che rivelano il contenuto come generato dall'intelligenza artificiale. Le applicazioni che visualizzano gli asset di immagine possono sfruttare l'SDK open source Content Authenticity Initiative per visualizzare le credenziali nelle immagini generate dall'intelligenza artificiale. Credenziali del contenuto in Azure OpenAI

  • Nuovi modelli RAI

    • Rilevamento del rischio di jailbreak: gli attacchi con jailbreak sono prompt degli utenti progettati per indurre il modello di intelligenza artificiale generativa a esibire comportamenti che è stato addestrato a evitare o a infrangere le regole stabilite nel messaggio di sistema. Il modello di rilevamento dei rischi jailbreak è facoltativo (disattivato per impostazione predefinita) e disponibile in annotazioni e modello di filtro. Viene eseguito alle richieste degli utenti.
    • Materiale testo protetto: il materiale testuale protetto descrive contenuti testuali noti (ad esempio, testi di canzoni, articoli, ricette e contenuti Web selezionati) che possono essere prodotti da modelli linguistici di grandi dimensioni. Il modello di testo del materiale protetto è facoltativo (disattivato per impostazione predefinita) e disponibile nelle annotazioni e nel modello di filtro. Viene eseguito sui completamenti LLM.
    • Materiale codice protetto: il codice materiale protetto descrive il codice sorgente che corrisponde a un set di codice sorgente da repository pubblici, che possono essere prodotti da modelli linguistici di grandi dimensioni senza un'adeguata citazione dei repository di origine. Il modello di codice materiale protetto è facoltativo (disattivato per impostazione predefinita) e disponibile in annotazioni e modelli di filtro. Viene eseguito sui completamenti LLM.

    Configurare i filtri di contenuto

  • Elenchi elementi bloccati: i clienti possono ora personalizzare rapidamente il comportamento del filtro del contenuto per richieste e completamenti creando un elenco elementi bloccati personalizzato nei relativi filtri. L'elenco elementi bloccati personalizzato consente al filtro di intervenire su un elenco personalizzato di modelli, ad esempio termini specifici o modelli regex. Oltre agli elenchi elementi bloccati personalizzati, viene fornito un elenco elementi bloccati per i contenuti volgari di Microsoft (inglese). Usare elenchi elementi bloccati

Ottobre 2023

Nuovi modelli di ottimizzazione (anteprima)

Azure OpenAI On Your Data

  • Nuovi parametri personalizzati per determinare il numero di documenti recuperati e rigidità.
    • L'impostazione di rigidità imposta la soglia per classificare i documenti come rilevanti per le query.
    • L'impostazione documenti recuperati specifica il numero di documenti con punteggio superiore dall'indice dati usato per generare risposte.
  • È possibile visualizzare lo stato di inserimento/caricamento dei dati in Azure OpenAI Studio.
  • Supporto per endpoint privati e VPN per i contenitori BLOB.

Settembre 2023

GPT-4

GPT-4 e GPT-4-32k sono ora disponibili per tutti i clienti del Servizio OpenAI di Azure. I clienti non devono più richiedere che l'elenco di attesa usi GPT-4 e GPT-4-32k (i requisiti di registrazione accesso limitato continuano a essere applicati per tutti i modelli OpenAI di Azure). La disponibilità può variare in base all'area. Controllare la pagina modelli per ottenere le informazioni più recenti sulla disponibilità di modelli in ogni area.

GPT-3.5 Turbo Instruct

Il Servizio OpenAI di Azure supporta ora il modello GPT-3.5 Turbo Instruct. Questo modello offre prestazioni paragonabili a text-davinci-003 ed è disponibile per l'uso con l'API Completamenti. Controllare la pagina modelli per ottenere le informazioni più recenti sulla disponibilità di modelli in ogni area.

Anteprima pubblica di Whisper

Il Servizio OpenAI di Azure supporta ora le API di riconoscimento vocale basate sul modello Whisper di OpenAI. Ottenere testo generato dall'intelligenza artificiale in base all'audio vocale fornito. Per altre informazioni, vedere guida introduttiva.

Nota

Voce di Azure AI supporta anche il modello Whisper di OpenAI tramite l'API di trascrizione batch. Per altre informazioni, vedere la guida Creare una trascrizione batch. Per altre informazioni sull'uso di Riconoscimento vocale per Voce di Azure AI, vedere Che cos'è il modello Whisper? Servizio OpenAI di Azure.

Nuove aree

  • Azure OpenAI è ora disponibile anche nelle aree Svezia centrale e Svizzera settentrionale. Controllare la pagina modelli per ottenere le informazioni più recenti sulla disponibilità di modelli in ogni area.

Aumenti dei limiti di quota a livello di area

  • Aumenta fino ai limiti di quota predefiniti massimi per determinati modelli e aree. La migrazione dei carichi di lavoro a questi modelli e aree consente di sfruttare i vantaggi dei token più elevati al minuto (TPM).

Agosto 2023

Aggiornamenti OpenAI di Azure per i propri dati (anteprima)

Luglio 2023

Supporto per la chiamata di funzioni

Aumento della matrice di input di incorporamento

Nuove aree

  • Azure OpenAI è ora disponibile anche nelle aree Canada orientale, Stati Uniti orientali 2, Giappone orientale e Stati Uniti centro-settentrionali. Controllare la pagina modelli per ottenere le informazioni più recenti sulla disponibilità di modelli in ogni area.

Giugno 2023

Usare OpenAI di Azure per i propri dati (anteprima)

  • Azure OpenAI On Your Data è ora disponibile in anteprima, consentendo di chattare con modelli OpenAI come GPT-35-Turbo e GPT-4 e ricevere risposte in basate sui propri dati.

Nuove versioni dei modelli gpt-35-turbo e gpt-4

  • gpt-35-turbo (versione 0613)
  • gpt-35-turbo-16k (versione 0613)
  • gpt-4 (versione 0613)
  • gpt-4-32k (versione 0613)

Regno Unito meridionale

  • Azure OpenAI è ora disponibile nell'area Regno Unito meridionale. Controllare la pagina modelli per ottenere le informazioni più recenti sulla disponibilità di modelli in ogni area.

Annotazioni e filtro di contenuto (anteprima)

Obiettivo di vendita

Maggio 2023

Supporto SDK JavaScript e Java

  • NUOVI SDK di anteprima di Azure OpenAI che offrono supporto per JavaScript e Java.

Disponibilità generale (GA) del completamento della chat OpenAI di Azure

  • Supporto di disponibilità generale per:
    • API Completamento chat versione 2023-05-15.
    • Modelli GPT-35-Turbo.
    • Serie di modelli GPT-4.

Se si usa attualmente l'API 2023-03-15-preview , è consigliabile eseguire la migrazione all'API ga 2023-05-15 . Se si usa attualmente la versione 2022-12-01 api, questa API rimane disponibile a livello generale, ma non include le funzionalità di completamento chat più recenti.

Importante

L'uso delle versioni correnti dei modelli GPT-35-Turbo con l'endpoint di completamento rimane in anteprima.

Francia centrale

  • Azure OpenAI è ora disponibile nell'area Francia centrale. Controllare la pagina modelli per ottenere le informazioni più recenti sulla disponibilità di modelli in ogni area.

Aprile 2023

  • Anteprima pubblica di DALL-E 2. Il servizio Azure OpenAI supporta ora le API di generazione di immagini basate sul modello DALL-E 2 di OpenAI. Ottenere immagini generate dall'intelligenza artificiale in base al testo descrittivo fornito. Per ulteriori informazioni, consultare la guida introduttiva.

  • Le distribuzioni inattive di modelli personalizzati verranno ora eliminate dopo 15 giorni; i modelli rimarranno disponibili per la ridistribuzione. Se un modello personalizzato (ottimizzato) viene distribuito per più di quindici (15) giorni, durante i quali non vengono effettuati completamenti o chiamate di completamento della chat, la distribuzione verrà eliminata automaticamente (e non ci saranno ulteriori per l'hosting per tale distribuzione). Il modello personalizzato sottostante rimarrà disponibile e potrà essere ridistribuito in qualsiasi momento. Per ulteriori informazioni, consultare l'articolo di istruzioni.

Marzo 2023

  • I modelli della serie GPT-4 sono ora disponibili in anteprima in Azure OpenAI. I clienti di Azure OpenAI esistenti possono richiedere l’accesso compilando questo modulo. Questi modelli sono attualmente disponibili nelle aree Stati Uniti orientali e Stati Uniti centro-meridionali.

  • Nuova API di completamento della chat per i modelli GPT-35-Turbo e GPT-4 rilasciata in anteprima il 3/21. Per ulteriori informazioni, consultare le guide introduttive aggiornate e l’articolo di istruzioni.

  • Anteprima GPT-35-Turbo. Per ulteriori informazioni, consultare l'articolo di istruzioni.

  • Aumento dei limiti di training per l'ottimizzazione: la dimensione massima del processo di training (token nel file di training) x (# di periodi) è di 2 miliardi di token per tutti i modelli. Abbiamo anche aumentato il massimo lavoro di training da 120 a 720 ore.

  • Aggiunta di ulteriori casi d'uso all'accesso esistente. In precedenza, il processo di aggiunta di nuovi casi d'uso richiedeva ai clienti di fare nuovamente domanda per il servizio. Verrà ora rilasciato un nuovo processo che consente di aggiungere rapidamente nuovi casi d'uso all'uso del servizio. Questa operazione segue il processo di Accesso limitato stabilito in Servizi di Azure AI. I clienti esistenti possono confermare qui tutti i nuovi casi d'uso. Si noti che questa operazione è necessaria ogni volta che si vuole usare il servizio per un nuovo caso d'uso per cui non si è originariamente richiesto.

2023 febbraio

Nuove funzionalità

Aggiornamenti

  • Il filtro del contenuto è attivato per impostazione predefinita.

Nuovi articoli su:

Nuovo corso di formazione:

Gennaio 2023

Nuove funzionalità

  • Disponibilità generale del servizio. Il servizio OpenAI di Azure è ora disponibile a livello generale.

  • Nuovi modelli: aggiunta del modello di testo più recente, text-davinci-003 (Stati Uniti orientali, Europa occidentale), text-ada-embeddings-002 (Stati Uniti orientali, Stati Uniti centro-meridionali, Europa occidentale)

Dicembre 2022

Nuove funzionalità

  • I modelli più recenti di OpenAI. Azure OpenAI consente di accedere a tutti i modelli più recenti, inclusa la serie GPT-3.5.

  • Nuova versione dell'API (2022-12-01). Questo aggiornamento include diversi miglioramenti richiesti, tra cui le informazioni sull'utilizzo dei token nella risposta API, i messaggi di errore migliorati per i file, l'allineamento con OpenAI sull’ottimizzazione della struttura dei dati di creazione e il supporto per il parametro suffisso per consentire la denominazione personalizzata dei processi ottimizzati. ​

  • Limiti di richiesta al secondo più elevati. 50 per i modelli non Davinci. 20 per i modelli Davinci

  • Ottimizzare le distribuzioni più rapidamente. Distribuire modelli ottimizzati per Ada e Marie in meno di 10 minuti.

  • Limiti di training più elevati: token di training di 40M per Ada, Babbage e Marie. 10M per Davinci.

  • Processo per richiedere modifiche alla registrazione dei dati di abuso e uso improprio e revisione umana. Attualmente, il servizio registra i dati di richiesta/risposta al fine di rilevare abusi e uso improprio per garantire che questi modelli avanzati non vengano usati impropriamente. Tuttavia, molti clienti hanno requisiti rigorosi di privacy e sicurezza dei dati che richiedono un maggiore controllo sui dati. Per supportare questi casi d'uso, sarà rilasciato un nuovo processo perché i clienti possano modificare i criteri di filtro dei contenuti o disattivare la registrazione degli abusi per i casi d'uso a basso rischio. Questa operazione segue il processo di Accesso limitato stabilito all'interno di Servizi di Azure AI e i clienti OpenAI esistenti possono fare domanda qui.

  • Crittografia della chiave gestita dal cliente (CMK). CMK offre ai clienti un maggiore controllo sulla gestione dei dati in Azure OpenAI fornendo le sue chiavi di crittografia usate per archiviare i dati di training e i modelli personalizzati. Le chiavi gestite dal cliente, note anche come Bring Your Own Key (BYOK), offrono maggiore flessibilità per creare, ruotare, disabilitare e revocare i controlli di accesso. È anche possibile controllare le chiavi di crittografia usate per proteggere i dati. Per ulteriori informazioni, consultare la documentazione relativa alla crittografia in inattività.

  • Supporto di Lockbox

  • Conformità SOC-2

  • Registrazione e diagnostica tramite Integrità risorse di Azure, Analisi dei costi e Impostazioni di diagnostica delle metriche.

  • Miglioramenti di Studio. Numerosi miglioramenti dell'usabilità del flusso di lavoro di Studio, incluso il supporto del ruolo di Azure AD per controllare quali membri del team abbiano accesso alla la creazione di modelli ottimizzati e la distribuzione.

Modifiche (interruzione)

L’ottimizzazione della richiesta di creazione API è stata aggiornata in modo che corrisponda allo schema di OpenAI.

Versioni dell'API di anteprima:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "hyperparams": { ​
        "batch_size": 4,​
        "learning_rate_multiplier": 0.1,​
        "n_epochs": 4,​
        "prompt_loss_weight": 0.1,​
    }​
}

API versione 2022-12-01:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "batch_size": 4,​
    "learning_rate_multiplier": 0.1,​
    "n_epochs": 4,​
    "prompt_loss_weight": 0.1,​
}

Il filtro del contenuto è temporaneamente disattivato per impostazione predefinita. La moderazione del contenuto di Azure funziona in modo diverso rispetto a OpenAI di Azure. Azure OpenAI esegue filtri di contenuto durante la chiamata di generazione per rilevare contenuto dannoso o offensivo e filtrarlo dalla risposta. Ulteriori informazioni

​Questi modelli verranno riabilitato nel primo trimestre del 2023 e saranno attivati per impostazione predefinita. ​

Azioni cliente

Passaggi successivi

Altre informazioni sui modelli sottostanti che alimentano OpenAI di Azure.