Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo illustra il modello di determinazione dei contenuti di Azure in Foundry Tools con esempi chiari e suddivisioni dei costi. Informazioni sui costi addebitati e su come stimare i costi per il carico di lavoro.
Per prezzi specifici, vedere Prezzi di Azure Content Understanding.
Informazioni sui due tipi di addebiti
I prezzi di Azure Content Understanding si basano su due categorie di utilizzo principali:
1. Addebiti per l'estrazione dei contenuti
L'estrazione del contenuto trasforma l'input non strutturato (documenti, audio, video) in testo e contenuto strutturati e ricercabili. Questo output include il riconoscimento ottico dei caratteri (OCR) per documenti, riconoscimento vocale per audio/video e rilevamento del layout. Si paga per unità di input elaborata:
- Documenti: per 1.000 pagine
- Audio e video: al minuto
2. Addebiti per le funzionalità generative
Quando si usano funzionalità basate su intelligenza artificiale che chiamano modelli di linguaggio di grandi dimensioni, vengono addebitati due tipi di addebiti:
- Addebiti per la contestualizzazione: prepara il contesto, genera punteggi di attendibilità, fornisce il fondamento della sorgente e formatta l'output. Per informazioni dettagliate, vedere Token di contestualizzazione.
- Addebiti dei modelli generativi: costi basati su token dalle implementazioni dei modelli Microsoft Foundry (LLM per generazione, incorporamenti per esempi di training). Content Understanding utilizza il modello Foundry distribuito da te per tutte le chiamate collegate all'intelligenza artificiale generativa. La fatturazione per l'utilizzo dei token di embedding o LLM non è visualizzata in Content Understanding. Tale utilizzo compare nella distribuzione del modello Foundry. Per informazioni dettagliate, vedere Addebiti dei modelli generativi.
Le funzionalità generative includono: estrazione di campi, analisi delle figure, segmentazione, categorizzazione, training.
Equazione dei costi
Il costo totale per l'esecuzione di un analizzatore di comprensione del contenuto segue questa formula:
Total Cost = Content Extraction + Contextualization Tokens + LLM Input Tokens + LLM Output Tokens + Embeddings Tokens
Se utilizzi solo l'estrazione di contenuti senza funzionalità generative, ti verrà addebitata solo l'estrazione dei contenuti. Quando si usano funzionalità generative, vengono applicati tutti gli addebiti applicabili.
Come stimare i costi
1. Testare con file rappresentativi
Eseguire un'analisi di test di piccole dimensioni con i file e lo schema effettivi. Per visualizzare l'utilizzo effettivo dei token, controllare l'oggetto usage nella risposta dell'API Analyzers.
"usage": {
"documentPagesMinimal": 0, // Pages processed at the minimal level (i.e. txt, xlsx, html, and other digital file types)
"documentPagesBasic": 0, // Pages processed at the basic level (i.e. read)
"documentPagesStandard": 2, // Pages processed at the standard level (i.e. layout)
"contextualizationToken": 2000,
"tokens": {
"gpt-4.1-input": 10400,
"gpt-4.1-output": 360
}
}
2. Usare il Calcolatore prezzi di Azure
Trova Informazioni sul contenuto nel Calcolatore Prezzi di Azure e configura le tue impostazioni.
- Aggiungere "Content Understanding" al calcolatore
- Usare i risultati del test del passaggio 1 per calcolare le medie dei token per pagina o al minuto
- Immettere i conteggi dei token insieme all'area, al tipo di file, al volume previsto e alla distribuzione del modello
Il calcolatore fornisce proiezioni accurate dei costi per il carico di lavoro.
Esempio di tariffazione: estrazione di campi della fattura
Seguendo l'approccio di stima, verrà illustrato manualmente un esempio concreto per illustrare come vengono calcolati i costi. Si elaborano fatture per estrarre dati strutturati come nome fornitore, numero di fattura, importo totale e voci.
Scenario: si vogliono elaborare 1.000 pagine di fattura usando GPT-4o-mini con i punteggi di attendibilità e di origine disabilitati.
Passaggio 1: Testare con file rappresentativi Dopo aver testato i file rappresentativi, è stato rilevato l'utilizzo medio dei token seguente per pagina:
- Token di input: 1.100 per pagina
- Token di output: 60 per pagina
- Contestualizzazione: 1.000 token per pagina (tariffa fissa)
Per 1.000 pagine, totali uguali:
- Token di input totali: 1.000 pagine × 1.100 = 1.100.000 token
- Token di output totali: 1.000 pagine × 60 = 60.000 token
- Totale token di contestualizzazione: 1.000 pagine × 1.000 = 1.000.000 token
Passaggio 2: Calcolare manualmente i costi (anziché usare il calcolatore prezzi) L'uso della distribuzione globale GPT-4o-mini con i seguenti presupposti sui prezzi:
Presupposti relativi ai prezzi :
- Estrazione contenuto: $ 5,00 per 1.000 pagine
- Contestualizzazione: $1,00 per 1 MILIONE di token
- Token di input GPT-4o-mini: $ 0,40 per 1 milione di token
- Token di output GPT-4o-mini: $ 1,60 per 1 milione di token
- Incorporamenti: $ 0,02 per 1.000 token. Non si usa una Knowledge Base con esempi di training, quindi non vengono applicati addebiti per incorporamenti. Se si aggiungono esempi etichettati per migliorare l'accuratezza, il sistema aggiunge l'utilizzo dei token di incorporamento per incorporare il testo dai documenti di input e dai token di input di completamento per elaborare i dati di esempio aggiunti alla finestra di contesto.
Calcolo dei costi:
- Estrazione contenuto: 1.000 pagine × $ 5,00 per 1.000 pagine = $ 5,00
- Contestualizzazione: 1.000.000 token × $1,00 per 1 milione di token = $ 1,00
- Token di input: 1.100.000 token × $ 0,40 per 1 milione di token = $ 0,44
- Token di output: 60.000 token × $ 1,60 per 1 milione di token = $ 0,10
- Incorporamenti: non usati = $ 0,00
Total Cost = $5.00 + $1.00 + $0.44 + $0.10 + $0.00 = $6.54 per 1000 pages
Annotazioni
Questi prezzi sono solo a scopo illustrativo e non sono destinati a rappresentare il costo effettivo. Per informazioni sui prezzi correnti, vedere Prezzi di Azure Content Understanding e Prezzi di Azure OpenAI .
Componenti dei costi dettagliati
Estrazione di contenuto
L'estrazione di contenuti è il primo passaggio essenziale per trasformare l'input non strutturato, sia esso un documento, un audio o un video, in un formato standardizzato e riutilizzabile. Questa elaborazione di base è necessaria per tutte le funzionalità generative e può essere usata autonoma.
Prezzi di estrazione dei contenuti in base alla modalità:
- Documenti: tre contatori a livelli (minimo, base o standard) in base alla complessità di elaborazione
- Audio: trascrizione di parlato in testo (contatore standard singolo, con prezzo al minuto)
- Video: estrazione dei fotogrammi, rilevamento degli scatti e trascrizione vocale (singolo contatore standard, prezzo al minuto)
- Immagini: nessuna estrazione di contenuto disponibile
Contatori di estrazione del contenuto dei documenti
Per i documenti, i costi vengono addebitati in base al tipo di elaborazione eseguita da Content Understanding. Gli addebiti per Content Understanding si basano sul lavoro effettivamente eseguito su ogni pagina, non sull'analizzatore che selezioni.
Misuratore minimo: si applica ai documenti digitali (DOCX, XLSX, PPTX, HTML, TXT, MSG, EML) in cui non è necessaria alcuna elaborazione OCR o di layout. Questo misuratore è l'opzione di costo più basso per i documenti nativi digitali. Viene addebitata la tariffa minima indipendentemente dall'analizzatore usato, anche se si chiama un analizzatore di layout in un documento digitale, vengono addebitati solo i costi per l'elaborazione minima eseguita.
Contatore base: si applica quando Comprensione dei contenuti esegue l'elaborazione OCR per estrarre testo da documenti basati su immagini (PDF scansionali, immagini, TIFF) senza analisi del layout.
Contatore standard: si applica quando Content Understanding esegue l'analisi del layout, tra cui il riconoscimento delle tabelle e il rilevamento degli elementi strutturali da documenti basati su immagini (PDF analizzati, immagini, TIFF).
Nella tabella seguente viene illustrato quale contatore si applica in base al tipo di file e al livello di analisi:
| Tipo di file | Lettura (di base) | Layout (standard) |
|---|---|---|
| Basato su immagini (PDF, PNG, TIFF, JPG e così via) | Contatore di base | Contatore standard |
| Formati digitali (DOCX, XLSX, HTML, TXT e così via) | Contatore minimo | Contatore minimo |
Suggerimento
Il contatore addebitato dipende dall'elaborazione effettiva eseguita da Comprensione dei contenuti, non dall'analizzatore scelto. I documenti digitali utilizzano sempre la misura minima perché non necessitano di OCR e dell'elaborazione del layout.
Funzionalità generative
Le funzionalità generative di Content Understanding usano modelli di intelligenza artificiale generativi per migliorare la qualità dell'output. Nella versione più recente dell'API [2025-11-01], è possibile scegliere un modello generativo in base al caso d'uso (ad esempio GPT-4o o GPT-4o-mini).
Quando si usano funzionalità generative, Content Understanding utilizza l'implementazione dei modelli Foundry che fornisci. L'utilizzo dei token per i modelli di completamento o incorporamenti è associato a quella distribuzione.
Token di contestualizzazione
La contestualizzazione è il livello di elaborazione di Content Understanding che prepara il contesto per i modelli generativi e ne post-elabora l'output nei risultati strutturati finali.
Che cosa offre la contestualizzazione:
- Normalizzazione e formattazione dell'output in schemi strutturati
- Base di origine per mostrare da dove provengono le informazioni
- Calcolo del punteggio di attendibilità per l'affidabilità dell'estrazione
- Progettazione del contesto per ottimizzare l'utilizzo e l'accuratezza dei modelli linguistici di grandi dimensioni (LLM)
Quando vengono addebitati i costi: ogni volta che si usano funzionalità generative (estrazione di campi, analisi delle figure, segmentazione, categorizzazione, training).
Prezzi: tariffa fissa per unità di contenuto
I token di contestualizzazione vengono calcolati per unità di contenuto:
| Units | Token di contestualizzazione | Prezzo standard effettivo per unità |
|---|---|---|
| Per pagina | 1.000 token di contestualizzazione | $ 1 per 1.000 pagine |
| Per ogni immagine | 1.000 token di contestualizzazione | $ 1 per 1.000 immagini |
| Per ora di audio | 100.000 token di contestualizzazione | 0,10 $ all'ora |
| Per ogni ora di video | 1.000.000 token di contestualizzazione | $1 all'ora |
Presumendo $1,00 per 1 milione di token di contestualizzazione.
Costi dei modelli generativi (LLM)
Addebiti basati su token dai modelli Foundry che potenziano l'estrazione effettiva dei campi, l'analisi e altre funzionalità generative.
I token di input includono:
- Testo estratto e trascrizioni
- Token di immagine (per l'analisi visiva)
- Definizioni dello schema
- Richieste di sistema
- Esempi di training (quando si usa la Knowledge Base)
I token di output includono:
- Valori dei campi e dati strutturati
- Punteggi di attendibilità e base di origine
- Risultati e descrizioni dell'analisi
Ottimizzazione dei costi: scegliere modelli più piccoli (GPT-4o-mini) o distribuzioni globali per risparmi significativi.
Addebiti per incorporamenti
Addebiti basati su token per i modelli di embedding usati durante l'addestramento di analizzatori personalizzati con esempi etichettati per migliorare l'accuratezza.
- Quando avviene l'addebito: solo quando si usa la funzionalità di training con dati etichettati
- Modelli: text-embedding-3-large, text-embedding-3-small o text-embedding-ada-002
- Utilizzo tipico: l'intero documento è incorporato. L'utilizzo può variare a seconda della densità del testo, ma circa 1.500 token per pagina sono una buona stima iniziale.
Dettagli delle funzionalità generative
Esistono diverse funzionalità generative ognuna delle quali ha implicazioni leggermente diverse per i costi.
Estrazione di campi
Genera coppie chiave-valore strutturate in base alla definizione dello schema. Esempi includono il mittente/destinatario della fattura, gli elementi di riga o gli elementi degli annunci video come la tagline e l'aspetto del prodotto.
Impatto sui costi: Gli addebiti variano con la complessità dello schema e le dimensioni del contenuto.
Analisi delle figure
Crea testo descrittivo per immagini, grafici e diagrammi per rendere ricercabile contenuto visivo nei flussi di lavoro RAG.
Impatto dei costi: token LLM per ogni immagine analizzata - sia i token di input per l'interpretazione delle immagini che i token di output per le descrizioni. L'utilizzo si adatta alle dimensioni e al numero di immagini contenute nel documento.
Segmentazione
Divide documenti o video in sezioni logiche per l'elaborazione mirata e migliorare l'efficienza.
Impatto sui costi: costi dei token di output per ogni segmento creato. Facoltativamente, è possibile concatenare gli analizzatori per ulteriori analisi su ogni segmento. Quando si usa il concatenamento, si incorre in più estrazione di contenuti e utilizzo generativo, equivalente all'esecuzione degli analizzatori concatenati in modo autonomo.
Categorizzazione
Assegna etichette a documenti o segmenti per la classificazione e il routing intelligente a analizzatori specializzati.
Impatto sui costi: LLM e costi di contestualizzazione per la classificazione. L'instradamento verso altri analizzatori aggiunge i rispettivi addebiti.
Training
Compila analizzatori personalizzati usando esempi etichettati per miglioramenti dell'accuratezza specifici del dominio.
Impatto sui costi: incorporamento dell'utilizzo dei token durante l'aggiunta di dati etichettati, oltre a più token LLM durante l'analisi quando vengono recuperati e forniti esempi di training al modello.
Base di Conoscenza
Migliora gli analizzatori personalizzati con esempi di training etichettati per miglioramenti dell'accuratezza specifici del dominio.
Impatto sui costi: il modello di incorporamento viene usato per indicizzare e recuperare gli esempi. Inoltre, i token LLM vengono usati durante l'analisi quando vengono recuperati esempi di training e forniti al modello.
Domande frequenti
Quando viene addebitato l'utilizzo LLM?
Vengono addebitati i token LLM solo quando si fornisce all'analizzatore una distribuzione Foundry e si usa una funzionalità generativa in Comprensione dei contenuti. Gli analizzatori che eseguono solo l'estrazione del contenuto (ad esempio prebuilt-read, , prebuilt-layouto analizzatori personalizzati senza alcuna funzionalità generativa) non comportano addebiti LLM.
Come è possibile sapere quale contatore di estrazione del contenuto si applica ai documenti?
L'elaborazione effettiva eseguita determina il contatore, non l'analizzatore scelto:
- Minimo: i documenti digitali (DOCX, XLSX, HTML, TXT e così via) usano sempre minimi, indipendentemente dall'analizzatore
- Base: Documenti basati su immagini con elaborazione solo OCR (Analizzatore di lettura)
- Standard: documenti basati su immagini con l'analisi del layout (analizzatore layout)
Per altre informazioni sui contatori, vedere Contatori di estrazione del contenuto dei documenti.
Vengono addebitati due volte i costi per l'utilizzo del modello Foundry?
No. Comprensione dei contenuti usa le distribuzioni LLM collegate per tutte le chiamate LLM e di incorporamento. Ti vengono addebitate queste distribuzioni. Si paga Content Understanding per l'estrazione e la contestualizzazione del contenuto e Foundry per i token del modello generativo (token di input/output e incorporamenti).
Quanto è possibile risparmiare con modelli più piccoli?
La scelta di GPT-4o-mini invece di GPT-4o può ridurre i costi LLM fino a 80%. Le distribuzioni globali offrono risparmi aggiuntivi. L'estrazione del contenuto e gli addebiti di contestualizzazione rimangono invariati indipendentemente dalla scelta del modello.
Cosa aumenta l'utilizzo dei token?
Diverse funzionalità moltiplicano il consumo di token:
- Base di origine + punteggi di attendibilità: utilizzo di token ~2 volte
- Modalità estrattiva: ~1.5x utilizzo dei token
- Esempi di formazione: ~2x utilizzo dei token
- Segmentazione/categorizzazione: ~2x utilizzo di token
Mi verrà addebitato un costo se la mia richiesta non va a buon fine?
Comprensione dei contenuti non addebita alcun costo per l'estrazione di contenuti o la contestualizzazione quando una richiesta non riesce con un errore, ad esempio un errore 400. Se una chiamata al modello di completamento Foundry è riuscita prima dell'errore, si viene addebitati per l'utilizzo del modello Foundry in base ai criteri di fatturazione di Foundry.
Consigli sull'ottimizzazione dei costi
- Iniziare con mini modelli - GPT-4o-mini offre notevoli risparmi per la maggior parte delle attività di estrazione
- Usare distribuzioni globali quando consentito dalla residenza e conformità dei dati
- Abilitare le funzionalità avanzate in modo selettivo : usare solo i punteggi di attendibilità e di base di origine quando necessario
- Testare i file rappresentativi prima del ridimensionamento per comprendere l'effettivo consumo di token
- Monitorare regolarmente l'utilizzo tramite il portale di Azure per identificare le opportunità di ottimizzazione
Altri esempi di prezzi
Di seguito sono riportati esempi dettagliati che illustrano il funzionamento dei prezzi in diversi scenari:
Esempio 1: Elaborazione dei documenti per i flussi di lavoro RAG
Scenario: è necessario estrarre contenuto dai documenti per una soluzione di Retrieval-Augmented Generation (RAG). Usi prebuilt-documentSearch per estrarre testo, layout e descrizioni delle figure.
Input:
- 1.000 pagine
- Distribuzione globale del modello GPT-4.1
- Area: Stati Uniti orientali
Scomposizione dei prezzi:
Estrazione contenuto: 1.000 pagine
- Costo: (1.000 / 1.000) × $ 5,00 = $ 5,00
Analisi delle figure:
Supponendo due immagini per pagina. Costa circa 1000 token di input e 200 token di output per figura.
- Token di input: 2.000 cifre × 1000 token/immagine = 2.000.000 token
- Costo: (2.000.000 / 1.000.000) × $ 2,00 = $ 4,00
- Token di output: 2.000 pagine × 200 token/pagina = 400.000 token
- Costo: (400.000 / 1.000.000) × $ 8,00 = $ 3,2
Contestualizzazione: 1.000 pagine × 1.000 token/pagina = 1.000.000 token
- Costo: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00
Costo stimato totale: $ 5,00 + $4 + $3,2 + $1,00 = $13,20
Annotazioni
Questi prezzi sono solo a scopo illustrativo e non sono destinati a rappresentare il costo effettivo. Per informazioni sui prezzi correnti, vedere Prezzi di Azure Content Understanding e Prezzi di Azure OpenAI
Esempio 2: Elaborazione delle fatture con estrazione dei campi
Scenario: si sta automatizzando l'elaborazione della fattura usando prebuilt-invoice per estrarre dati strutturati (numero di fattura, data, fornitore, totale, voci).
Input:
- 1.000 pagine
- Modello: distribuzione globale GPT-4.1-mini (ottimizzata per i costi)
- Funzionalità: modalità estrativa + stima dell'origine + punteggi di attendibilità
- Area: Stati Uniti orientali
Scomposizione dei prezzi:
Estrazione contenuto: 1.000 pagine
- Costo: (1.000 / 1.000) × $ 5,00 = $ 5,00
Estrazione di campi: con stima della sorgente e fiducia abilitata, l'utilizzo del token è di circa 2 volte superiore per pagina.
- Token di input di base: 1.000 pagine × 5.200 token/pagina = 5.200.000 token
- Costo: (5.200.000 / 1.000.000) × $ 0,40 = $ 2,08
- Token di output di base: 1.000 pagine × 180 token/pagina = 180.000 token
- Costo: (180.000 / 1.000.000) × $ 1,60 = $ 0,29
Contestualizzazione: 1.000 pagine × 1.000 token/pagina = 1.000.000 token
- Costo: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00
Costo stimato totale: $ 5,00 + $ 2,08 + $ 0,29 + $ 1,00 = $ 8,37
Annotazioni
L'uso di una distribuzione globale GPT-4.1 standard a differenza di mini aumenterebbe il costo di estrazione dei dati dai campi di circa 5 volte, per un totale di circa $33.
Annotazioni
Questi prezzi sono solo a scopo illustrativo e non sono destinati a rappresentare il costo effettivo. Per informazioni sui prezzi correnti, vedere Prezzi di Azure Content Understanding e Prezzi di Azure OpenAI
Esempio 3: Analisi del contenuto video con estrazione di campi a livello di segmento
Scenario: si estrae una rappresentazione strutturata del contenuto video per un'applicazione RAG. Per estrarre dati strutturati per segmento di video, è possibile usare .prebuilt-videoSearch I segmenti sono brevi clip di 15-30 secondi in media, generando numerosi segmenti di output con un singolo campo di riepilogo per segmento.
Input:
- 60 minuti (1 ora) di video
- Distribuzione globale del modello GPT-4.1
- Area: Stati Uniti orientali
Presupposti:
- Token in ingresso: 7.500 token al minuto (in base a fotogrammi campionati, trascrizione, richieste schema e metarichieste)
- Token di output: 900 token al minuto (presupponendo campi strutturati brevi da 10 a 20 per segmento con segmentazione automatica)
- Contestualizzazione: 1.000.000 token all'ora del video
Scomposizione dei prezzi:
Estrazione contenuto: 60 minuti
- Costo: 60 minuti × $1/ora = $ 1,00
Estrazione dei campi:
- Token di input: 60 minuti × 7.500 token al minuto = 450.000 token
- Costo: (450.000 / 1.000.000) × $ 2,00 = $ 0,90
- Token di output: 60 minuti × 900 token al minuto = 54.000 tokeni
- Costo: (54.000 / 1.000.000) × $ 8,00 = $ 0,43
Contestualizzazione: 1.000.000 token all'ora
- Costo: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00
Costo stimato totale: $ 1,00 + $ 0,90 + $ 0,43 + $ 1,00 = $ 3,33
Annotazioni
Il costo effettivo varia in base alle specifiche dell'input e dell'output. Questo modello di fatturazione trasparente basato sull'utilizzo garantisce il pagamento solo per ciò che si usa.
Annotazioni
Questi prezzi sono solo a scopo illustrativo e non sono destinati a rappresentare il costo effettivo. Per informazioni sui prezzi correnti, vedere Prezzi di Azure Content Understanding e Prezzi di Azure OpenAI
Esempio 4: Elaborazione delle registrazioni del call center audio
Scenario: si analizzano le registrazioni del call center usando prebuilt-callCenter per generare trascrizioni, diarizzazione degli interlocutori, analisi del sentiment e riepiloghi.
Input:
- 60 minuti di audio
- Modello: distribuzione globale GPT-4.1-mini
- Area: Stati Uniti orientali
Scomposizione dei prezzi:
Estrazione contenuto: 60 minuti
- Costo: 60 minuti × $ 0,36 al minuto = $ 0,36
Estrazione dei campi:
- Token di input: 60 minuti × 604 token al minuto = 36.240 token
- Costo: (36.240 / 1.000.000) × $ 0,40 = $ 0,01
- Token di output: 60 minuti × 19 token al minuto = 1,140 token
- Costo: (1.140 / 1.000.000) × $ 1,60 = $ 0,00
Contestualizzazione: 60 minuti × 1.667 token/minuto = 100.020 token
- Costo: (100.020 / 1.000.000) × $ 1,00 = $ 0,10
Costo totale stimato: $ 0,36 + $ 0,01 + $ 0,00 + $ 0,10 = $0,47
Annotazioni
Questi prezzi sono solo a scopo illustrativo e non sono destinati a rappresentare il costo effettivo. Per informazioni sui prezzi correnti, vedere Prezzi di Azure Content Understanding e Prezzi di Azure OpenAI
Esempio 5: Elaborazione di immagini con didascalie
Scenario: si generano didascalie descrittive per le immagini del prodotto usando prebuilt-imageSearch.
Input:
- 1.000 immagini
- Distribuzione globale del modello GPT-4.1
- Area: Stati Uniti orientali
Scomposizione dei prezzi:
Estrazione contenuto: nessun addebito per le immagini
- Costo: $ 0,00
Estrazione dei campi:
- Token di input: 1.000 immagini × 1.043 token/immagine = 1.043.000 token
- Costo: (1.043.000 / 1.000.000) × $ 2,00 = $ 2,09
- Token di output: 1.000 immagini × 170 token/immagine = 170.000 token
- Costo: (170.000 / 1.000.000) × $ 8,00 = $ 1,36
Contestualizzazione: 1.000 immagini × 1.000 token/immagine = 1.000.000 token
- Costo: (1.000.000 / 1.000.000) × $ 1,00 = $ 1,00
Costo stimato totale: $ 0,00 + $ 2,09 + $ 1,36 + $ 1,00 = $ 4,45
Annotazioni
Questi prezzi sono solo a scopo illustrativo e non sono destinati a rappresentare il costo effettivo. Per informazioni sui prezzi correnti, vedere Prezzi di Azure Content Understanding e Prezzi di Azure OpenAI