Che cos'è il Servizio OpenAI di Azure?
Il servizio Azure OpenAI fornisce l'accesso all'API REST ai potenti modelli linguistici di OpenAI, tra cui o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo con Vision, GPT-4, GPT-3.5-Turbo e serie di modelli embedding. Questi modelli possono essere facilmente adattati alle attività specifiche, tra cui, a titolo esemplificativo, la generazione di contenuti, il riepilogo, la comprensione delle immagini, la ricerca semantica e la traduzione dal linguaggio naturale al codice. Gli utenti possono accedere al servizio tramite API REST, Python SDK o in Azure AI Studio.
Panoramica delle funzionalità
Funzionalità | OpenAI di Azure |
---|---|
Modelli disponibili | o1-preview & o1-mini - (Accesso limitato - Richiesta di accesso) GPT-4o & GPT-4o mini Serie GPT-4 (incluso GPT-4 Turbo con Visione) Serie GPT-3.5-Turbo Serie Embeddings Per altre informazioni, vedere la pagina Modelli. |
Ottimizzazione | GPT-4o-mini (anteprima) GPT-4 (anteprima) GPT-3.5-Turbo (0613) babbage-002 davinci-002 . |
Price | Disponibili qui Per informazioni dettagliate su GPT-4 Turbo con Vision, vedere le informazioni speciali sui prezzi. |
Supporto rete virtuale e supporto collegamento privato | Sì. |
Identità gestita | Sì, tramite Microsoft Entra ID |
Esperienza dell'interfaccia utente | Portale di Azure per la gestione delle risorse e dell'account, Azure AI Studio per l'esplorazione e l'ottimizzazione dei modelli |
Disponibilità dei modelli a livello di area | Disponibilità dei modelli |
Filtri dei contenuti | Le richieste e i completamenti vengono valutati in base ai criteri di contenuto con sistemi automatizzati. Il contenuto con gravità elevata verrà filtrato. |
Intelligenza artificiale responsabile
Microsoft si impegna costantemente a migliorare l'IA basandosi su principi che pongano al primo posto le persone. I modelli generativi come quelli disponibili in Azure OpenAI hanno notevoli vantaggi potenziali, ma senza un'attenta progettazione e una ponderata mitigazione, tali modelli rischiano di generare contenuti errati o addirittura dannosi. Microsoft ha effettuato investimenti significativi per evitare abusi e danni imprevisti, che includono l'incorporamento dei principi per l'uso dell'intelligenza artificiale responsabile di Microsoft, l'adozione di un codice di comportamento per l'uso del servizio, la creazione di filtri del contenuto per supportare i clienti e la fornitura di informazioni e materiale sussidiario per l’intelligenza artificiale responsabile che i clienti devono prendere in considerazione quando usano Azure OpenAI.
Come si accede ad Azure OpenAI?
Per accedere alla maggior parte dei modelli Azure OpenAI non è necessario un modulo di registrazione ad accesso limitato. Per altre informazioni, vedere la pagina accesso limitato di Azure OpenAI.
Confronto tra OpenAI di Azure e OpenAI
Il Servizio OpenAI di Azure offre ai clienti un'intelligenza artificiale linguistica avanzata con i modelli OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper e i modelli di sintesi vocale con la sicurezza e l'impegno aziendale di Azure. Azure OpenAI sviluppa le API con OpenAI, garantendo la compatibilità e una transizione uniforme dall'uno all'altro.
Con OpenAI di Azure i clienti accedono alle funzionalità di sicurezza di Microsoft Azure eseguendo gli stessi modelli di OpenAI. Azure OpenAI offre funzionalità di rete privata, disponibilità a livello di area e filtro dei contenuti di intelligenza artificiale responsabile.
Concetti chiave
Prompt e completamento
L'endpoint di completamento è il componente principale del servizio API. Questa API fornisce l'accesso all'interfaccia "testo in ingresso e testo in uscita" del modello. Gli utenti devono semplicemente fornire un prompt di input contenente il comando di testo inglese, e il modello genererà un completamento del testo.
Di seguito è riportato l’esempio di un semplice prompt con completamento:
Prompt:
""" count to 5 in a for loop """
Completamento:
for i in range(1, 6): print(i)
OAuth
Token di testo
Azure OpenAI elabora il testo suddividendolo in token. I token possono essere parole o blocchi di caratteri. Ad esempio, la parola "hamburger" viene suddivisa nei token "ham", "bur" e "ger", mentre una parola breve e comune come "pear" è un singolo token. Molti token iniziano con uno spazio vuoto, ad esempio " hello" e " bye".
Il numero totale di token elaborati in una determinata richiesta dipende dalla lunghezza dei parametri di input, output e richiesta. La quantità di token elaborati influirà anche sulla latenza della risposta e sulla velocità effettiva per i modelli.
Token di immagine
Le funzionalità di elaborazione delle immagini di Azure OpenAI con GPT-4o, GPT-4o mini e GPT-4 Turbo con Vision usano la tokenizzazione delle immagini per determinare il numero totale di token utilizzati dagli input dell'immagine. Il numero di token utilizzati viene calcolato in base a due fattori principali: il livello di dettaglio dell'immagine (basso o alto) e le dimensioni dell'immagine. Ecco come vengono calcolati i costi dei token:
- Modalità a bassa risoluzione
- Dettagli ridotti consente all'API di restituire risposte più veloci per scenari che non richiedono un'analisi ad alta risoluzione delle immagini. I token utilizzati per le immagini con dettaglio ridotto sono:
- GPT-4o e GPT-4 Turbo con Vision: frequenza flat di 85 token per immagine, indipendentemente dalle dimensioni.
- GPT-4o mini: tariffa fissa di 2833 token per immagine, indipendentemente dalle dimensioni.
- Esempio: immagine 4096 x 8192 (basso livello di dettaglio): il costo è un token fisso di 85, perché si tratta di un'immagine con un basso livello di dettaglio per cui la dimensione non influisce sul costo in questa modalità.
- Dettagli ridotti consente all'API di restituire risposte più veloci per scenari che non richiedono un'analisi ad alta risoluzione delle immagini. I token utilizzati per le immagini con dettaglio ridotto sono:
- Modalità ad alta risoluzione
- Dettagli ridotti consente all'API di analizzare le immagini in modo più dettagliato. I token di immagine vengono calcolati in base alle dimensioni dell'immagine. Il calcolo prevede i passaggi seguenti:
- Ridimensionamento dell'immagine: l'immagine viene ridimensionata per adattarsi a un quadrato di 2048 x 2048 pixel. Se il lato più breve è maggiore di 768 pixel, l'immagine viene ridimensionata ulteriormente in modo che il lato più breve sia lungo 768 pixel. Le proporzioni sono mantenute durante il ridimensionamento.
- Calcolo dei riquadri: una volta ridimensionata, l'immagine è suddivisa in riquadri da 512 x 512 pixel. Tutti i riquadri parziali vengono arrotondati a un riquadro completo. Il numero di riquadri determina il costo totale del token.
- Calcolo del token:
- GPT-4o e GPT-4 Turbo con Visione: ogni riquadro da 512 x 512 pixel costa 170 token. Al totale vengono aggiunti altri 85 token di base.
- GPT-4o mini: ogni riquadro da 512 x 512 pixel costa 5667 token. Al totale vengono aggiunti altri 2833 token di base.
- Esempio: 2048 x 4096 immagine (dettaglio elevato):
- L'immagine viene inizialmente ridimensionata a 1024 x 2048 pixel per adattarla al quadrato 2048 x 2048 pixel.
- L'immagine viene ridimensionata ulteriormente a 768 x 1536 pixel per garantire che il lato più breve sia un massimo di 768 pixel di lunghezza.
- L'immagine è divisa in 2 x 3 riquadri, ogni 512 x 512 pixel.
- Calcolo finale:
- Per GPT-4o e GPT-4 Turbo con Vision, il costo totale dei token è di 6 riquadri x 170 token per riquadro + 85 token di base = 1105 token.
- Per GPT-4o mini, il costo totale del token è di 6 riquadri x 5667 token per riquadro + 2833 token di base = 36835 token.
- Dettagli ridotti consente all'API di analizzare le immagini in modo più dettagliato. I token di immagine vengono calcolati in base alle dimensioni dell'immagine. Il calcolo prevede i passaggi seguenti:
Risorse
Azure OpenAI è una nuova offerta di prodotti in Azure. È possibile iniziare a usare Azure OpenAI così come si inizia a usare qualsiasi altro prodotto Azure per cui si crea una risorsa o un'istanza del servizio nella sottoscrizione di Azure. Sono disponibili altre informazioni sulla progettazione della gestione delle risorse di Azure.
Deployments
Dopo aver creato una risorsa OpenAI di Azure, è necessario distribuire un modello prima di iniziare a effettuare chiamate API e generare testo. Questa azione può essere eseguita usando le API di distribuzione. Queste API consentono di specificare il modello che si vuole usare.
Progettazione dei prompt
I modelli GPT-3, GPT-3.5 e GPT-4 di OpenAI sono basati su prompt. Con tali modelli basati su prompt, l'utente interagisce con il modello immettendo una richiesta di testo, a cui il modello risponde con un completamento del testo. Questo completamento è la continuazione del modello del testo di input.
Sebbene questi modelli siano estremamente potenti, il loro comportamento è anche molto sensibile al prompt. Ciò rende la progettazione dei prompt un'importante competenza da sviluppare.
La costruzione di richieste può essere difficile. In pratica, il prompt agisce per configurare i pesi del modello per completare l'attività desiderata, ma è più un'arte che una scienza, dato che spesso richiede esperienza e intuizione per creare una richiesta di successo.
Modelli
Il servizio fornisce agli utenti l'accesso a diversi modelli. Ogni modello offre una funzionalità e un prezzo diversi.
I modelli DALL-E (alcuni disponibili in anteprima; vedere modelli), generano immagini dai prompt di testo forniti dall'utente.
I modelli Whisper possono essere usati per trascrivere e tradurre il parlato in testo.
I modelli di sintesi vocale, attualmente in anteprima, possono essere usati per sintetizzare il testo in voce.
Altre informazioni su ogni modello sono disponibili nella pagina concettuale sui modelli.
Passaggi successivi
Altre informazioni sui modelli sottostanti che alimentano OpenAI di Azure.