Condividi tramite


Modelli in primo piano del catalogo dei modelli di intelligenza artificiale di Azure

Il catalogo dei modelli di intelligenza artificiale di Azure offre una vasta gamma di modelli da un'ampia gamma di provider. Sono disponibili varie opzioni per la distribuzione di modelli dal catalogo dei modelli. Questo articolo elenca i modelli in primo piano nel catalogo dei modelli che possono essere distribuiti e ospitati nei server Microsoft tramite distribuzioni standard. Per alcuni di questi modelli, è anche possibile ospitarli nell'infrastruttura per la distribuzione tramite calcolo gestito. Consulta Modelli disponibili per le opzioni di distribuzione supportate per trovare i modelli nel catalogo disponibili per la distribuzione tramite calcolo gestito o distribuzione standard.

Per eseguire l'inferenza con i modelli, modelli come TimeGEN-1 di Nixtla e Cohere rerank richiedono di utilizzare API personalizzate dai provider di modelli. Altri supportano l'inferenza usando l'inferenza del modello di intelligenza artificiale di Azure. Per altre informazioni sui singoli modelli, vedere le schede del modello nel catalogo dei modelli di Intelligenza artificiale di Azure.

Animazione che mostra la sezione del catalogo dei modelli di Azure AI Foundry e i modelli disponibili.

AI21 Labs

I modelli della famiglia Jamba sono grandi modelli linguistici basati su Mamba di livello di produzione di AI21, che utilizzano l'architettura ibrida Mamba-Transformer di AI21. È una versione ottimizzata per istruzioni del modello Jamba Transformer del modello spazio di stato (SSM) (State Space Model) strutturato ibrido di AI21. I modelli della famiglia Jamba sono stati progettati per un uso commerciale affidabile a livello di qualità e prestazioni.

Modello TIPO Capacità
AI21-Jamba-1.5-Mini completamento conversazione - Input: testo (262.144 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
AI21-Jamba-1.5-Large completamento conversazione - Input: testo (262.144 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati

Vedere questa raccolta di modelli nel catalogo dei modelli di Intelligenza artificiale di Azure.

Azure OpenAI

Azure OpenAI in Azure AI Foundry Models offre un set diversificato di modelli con funzionalità e punti di prezzo diversi. Questi modelli includono:

  • Modelli all'avanguardia progettati per affrontare le attività di ragionamento e risoluzione dei problemi con maggiore attenzione e capacità
  • Modelli che possono comprendere e generare codice e linguaggio naturale
  • Modelli che possono trascrivere e tradurre la voce in testo
Modello TIPO Capacità
o3-mini completamento conversazione - Input: testo e immagine (200.000 token)
- Output: testo (100.000 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
o1 completamento della chat (con immagini) - Input: testo e immagine (200.000 token)
- Output: testo (100.000 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
o1-preview completamento conversazione - Input: testo (128.000 token)
- Output: testo (32.768 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
o1-mini completamento conversazione - Input: testo (128.000 token)
- Output: testo (65.536 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
gpt-4o-realtime-preview tempo reale - Input: controllo, testo e audio (131.072 token)
- Output: testo e audio (16.384 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
gpt-4o completamento della chat (con contenuto audio e immagine) - Input: testo, immagine e audio (131.072 token)
- Output: testo (16.384 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
gpt-4o-mini completamento della chat (con contenuto audio e immagine) - Input: testo, immagine e audio (131.072 token)
- Output: testo (16.384 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
text-embedding-3-large incorporamenti - Input: testo (8.191 token)
- Output: vettore (3.072 dim.)
text-embedding-3-small incorporamenti - Input: testo (8.191 token)
- Output: vettore (1.536 dim.)

Vedere questa raccolta di modelli nel catalogo dei modelli di Intelligenza artificiale di Azure.

Cohere

La famiglia di modelli Cohere include diversi modelli ottimizzati per differenti casi d'uso, tra cui il rerank, i completamenti delle chat e i modelli di incorporazione.

Comando e incorporazione Cohere

La tabella seguente elenca i modelli Cohere che è possibile dedurre tramite l'inferenza del modello di intelligenza artificiale di Azure.

Modello TIPO Capacità
Cohere-command-A completamento conversazione - Input: testo (256.000 token)
- Output: testo (8.000 token)
- Chiamata dello strumento:
- Formati di risposta: Testo
Cohere-command-r-plus-08-2024 completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-command-r-08-2024 completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-command-r-plus
(deprecato)
completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-command-r
(deprecato)
completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-embed-4 incorporamenti
incorporamenti di immagini
- Input: immagine, testo
- Output: immagine, testo (128.000 token)
- Chiamata dello strumento:
- Formati di risposta: immagine, testo
Cohere-embed-v3-english incorporamenti
incorporamenti di immagini
- Input: testo (512 token)
- Output: vettore (1.024 dim.)
Cohere-embed-v3-multilingual incorporamenti
incorporamenti di immagini
- Input: testo (512 token)
- Output: vettore (1.024 dim.)

Esempi di inferenza: comando e incorporamento Cohere

Per altri esempi di come usare i modelli Cohere, vedere gli esempi seguenti:

Descrizione Lingua Esempio
Richieste Web Bash Command-RCommand-R+
cohere-embed.ipynb
Pacchetto di inferenza di Intelligenza artificiale di Azure per C# C# Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per JavaScript JavaScript Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per Python Pitone Collegamento
SDK di OpenAI (sperimentale) Pitone Collegamento
LangChain Pitone Collegamento
Cohere SDK Pitone Comando
Incorpora
LiteLLM SDK Pitone Collegamento

Esempi di generazione aumentata da recupero (RAG) e di utilizzo degli strumenti: comando e incorporamento Cohere

Descrizione Pacchetti Esempio
Creare un indice vettoriale FAISS (Facebook AI Similarity Search) locale utilizzando gli incorporamenti di Cohere - Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Usare Cohere Command R/R+ per rispondere alle domande dai dati presenti nell'indice vettoriale FAISS locale - Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Usare Cohere Command R/R+ per rispondere alle domande dai dati presenti nell'indice vettoriale di AI Search - Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Usare Cohere Command R/R+ per rispondere alle domande dai dati presenti nell'indice vettoriale di AI Search - Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Chiamata di uno strumento/funzione Command R+ con LangChain cohere, langchain, langchain_cohere command_tools-langchain.ipynb

Rerank Cohere

Nella tabella seguente sono elencati i modelli rerank Cohere. Per eseguire l'inferenza con questi modelli rerank, è necessario usare le API di rerank personalizzate di Cohere elencate nella tabella.

Modello TIPO API di inferenza
Cohere-rerank-v3.5 riclassificare
classificazione del testo
L'API di Cohere v2/rerank
Cohere-rerank-v3-english
(deprecato)
riclassificare
classificazione del testo
L'API di Cohere v2/rerank
API v1/rerank di Cohere
Cohere-rerank-v3-multilingue
(deprecato)
riclassificare
classificazione del testo
L'API di Cohere v2/rerank
API v1/rerank di Cohere

Prezzi per i modelli di "Cohere rerank"

Le query, da non confondere con la query di un utente, è un contatore dei prezzi che fa riferimento al costo associato ai token usati come input per l'inferenza di un modello Cohere Rerank. Cohere conta una singola unità di ricerca come query con un massimo di 100 documenti da classificare. Documenti più lunghi di 500 token (per Cohere-rerank-v3.5) o più di 4096 token (per Cohere-rerank-v3-english e Cohere-rerank-v3-multilingual) quando inclusa la lunghezza della query di ricerca vengono suddivisi in più blocchi, in cui ogni blocco viene conteggiato come singolo documento.

Vedere la raccolta di modelli Cohere nel catalogo dei modelli di intelligenza artificiale di Azure.

Core42

Core42 include LLM bidirezionali autoregressivi per arabo e inglese con funzionalità all'avanguardia in arabo.

Modello TIPO Capacità
jais-30b-chat completamento conversazione - Input: testo (8.192 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON

Vedere questa raccolta di modelli nel catalogo dei modelli di Intelligenza artificiale di Azure.

Esempi di inferenza: Core42

Per altri esempi di come usare i modelli Jais, vedere gli esempi seguenti:

Descrizione Lingua Esempio
Pacchetto di inferenza di Intelligenza artificiale di Azure per C# C# Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per JavaScript JavaScript Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per Python Pitone Collegamento

DeepSeek

La famiglia di modelli DeepSeek include DeepSeek-R1, che eccelle nelle attività di ragionamento usando un processo di training dettagliato, ad esempio linguaggio, ragionamento scientifico e attività di codifica, DeepSeek-V3-0324, un modello linguistico Mix-of-Experts (MoE) e altro ancora.

Modello TIPO Capacità
DeekSeek-V3-0324 completamento conversazione - Input: testo (131.072 token)
- Output: (131.072 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo, JSON
DeepSeek-V3
(Eredità)
completamento conversazione - Input: testo (131.072 token)
- Output: testo (131.072 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo, JSON
DeepSeek-R1 completamento della chat con contenuto di ragionamento - Input: testo (163.840 token)
- Output: testo (163.840 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo.

Per un'esercitazione su DeepSeek-R1, vedere Esercitazione: Introduzione al modello di ragionamento DeepSeek-R1 nell'inferenza del modello di intelligenza artificiale di Azure.

Vedere questa raccolta di modelli nel catalogo dei modelli di Intelligenza artificiale di Azure.

Esempi di inferenza: DeepSeek

Per altri esempi di come usare i modelli DeepSeek, vedere gli esempi seguenti:

Descrizione Lingua Esempio
Pacchetto di inferenza di Intelligenza artificiale di Azure per Python Pitone Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per JavaScript JavaScript Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per C# C# Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per Java Giava Collegamento

Meta

I modelli e gli strumenti Meta Llama sono una raccolta di modelli di intelligenza artificiale generativa preaddestrati e perfezionati per il ragionamento su testo e immagini. La gamma di modelli Meta è progettata per includere:

  • Piccoli modelli linguistici (SLM), ad esempio modelli Base e Instruct 1B e 3B per l'inferenza su dispositivo ed edge
  • Modelli di linguaggio di medie dimensioni (LLMs) come i modelli 7B, 8B e i modelli 70B Base e Instruct.
  • Modelli ad alte prestazioni come Meta Llama 3.1-405B Instruct per la generazione di dati sintetici e i casi d'uso della distillazione.
  • Modelli multimodali ad alta prestazione nativi, Llama 4 Scout e Llama 4 Maverick, sfruttano un'architettura a miscela di esperti per offrire prestazioni leader del settore nella comprensione di testi e immagini.
Modello TIPO Capacità
Llama-4-Scout-17B-16E-Instruct completamento conversazione - Input: testo e immagine (128.000 token)
- Output: testo (8.192 token)
- Chiamata dello strumento:
- Formati di risposta: Testo
Llama 4-Maverick-17B-128E-Instruct-FP8 completamento conversazione - Input: testo e immagine (128.000 token)
- Output: testo (8.192 token)
- Chiamata dello strumento:
- Formati di risposta: Testo
Llama-3.3-70B-Instruct completamento conversazione - Input: testo (128.000 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Llama-3.2-90B-Vision-Instruct completamento della chat (con immagini) - Input: testo e immagine (128.000 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Llama-3.2-11B-Vision-Instruct completamento della chat (con immagini) - Input: testo e immagine (128.000 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Meta-Llama-3.1-8B-Instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Meta-Llama-3.1-405B-Instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Meta-Llama-3.1-70B-Instruct (deprecato) completamento conversazione - Input: testo (131.072 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Meta-Llama-3-8B-Instruct (deprecato) completamento conversazione - Input: testo (8.192 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Meta-Llama-3-70B-Instruct (deprecato) completamento conversazione - Input: testo (8.192 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo

Vedere questa raccolta di modelli nel catalogo dei modelli di Intelligenza artificiale di Azure.

Esempi di inferenza: Meta Llama

Per altri esempi di come usare i modelli Meta Llama, vedere gli esempi seguenti:

Descrizione Lingua Esempio
Richiesta CURL Bash Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per C# C# Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per JavaScript JavaScript Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per Python Pitone Collegamento
Richieste Web Python Pitone Collegamento
SDK di OpenAI (sperimentale) Pitone Collegamento
LangChain Pitone Collegamento
LiteLLM Pitone Collegamento

Microsoft

I modelli Microsoft includono vari gruppi di modelli, ad esempio modelli MAI, modelli Phi, modelli di intelligenza artificiale per il settore sanitario e altro ancora. Per visualizzare tutti i modelli Microsoft disponibili, visualizzare la raccolta di modelli Microsoft nel portale di Azure AI Foundry.

Modello TIPO Capacità
MAI-DS-R1 completamento della chat con contenuto di ragionamento - Input: testo (163.840 token)
- Output: testo (163.840 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo.
Phi-4-reasoning completamento della chat con contenuto di ragionamento - Input: testo (32768 token)
- Output: testo (32768 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-4-mini-ragionamento completamento della chat con contenuto di ragionamento - Input: testo (128.000 token)
- Output: testo (128.000 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-4-multimodale-instruct completamento della chat (con contenuto audio e immagine) - Input: testo, immagini e audio (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-4-mini-indire completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-4 completamento conversazione - Input: testo (16.384 token)
- Output: testo (16.384 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3.5-mini-instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3.5-MoE-instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3.5-vision-instruct completamento della chat (con immagini) - Input: testo e immagine (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3-mini-128k-instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3-mini-4k-instruct completamento conversazione - Input: testo (4.096 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3-small-128k-instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3-small-8k-instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3-medium-128k-instruct completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Phi-3-medium-4k-instruct completamento conversazione - Input: testo (4.096 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo

Esempi di inferenza: modelli Microsoft

Per altri esempi di come usare i modelli Microsoft, vedere gli esempi seguenti:

Descrizione Lingua Esempio
Pacchetto di inferenza di Intelligenza artificiale di Azure per C# C# Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per JavaScript JavaScript Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per Python Pitone Collegamento
LangChain Pitone Collegamento
Llama-Index Pitone Collegamento

Vedere la raccolta di modelli Microsoft nel catalogo dei modelli di Intelligenza artificiale di Azure.

Intelligenza artificiale Mistral

L'intelligenza artificiale mistrale offre due categorie di modelli, ovvero:

  • Modelli Premium: sono inclusi i modelli Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) e Ministral 3B e sono disponibili come API serverless con fatturazione basata su token con pagamento in base al consumo.
  • Modelli aperti: questi includono Mistral-small-2503, Codestral e Mistral Nemo (disponibili come API serverless con fatturazione basata su token con pagamento in base al consumo) e Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 e Mistral-7B-v01(disponibili per il download e l'esecuzione su endpoint gestiti self-hosted).
Modello TIPO Capacità
Codestral-2501 completamento conversazione - Input: testo (262.144 token)
- Output: testo (4.096 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo
Ministral-3B completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-Nemo completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-Large-2411 completamento conversazione - Input: testo (128.000 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-large-2407
(deprecato)
completamento conversazione - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-large
(deprecato)
completamento conversazione - Input: testo (32.768 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-medium-2505 completamento conversazione - Input: testo (128.000 token), immagine
- Output: testo (128.000 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo, JSON
Mistral-OCR-2503 conversione da immagine a testo - Input: immagini o pagine PDF (1.000 pagine, massimo 50 MB di file PDF)
- Output: testo
- Chiamata dello strumento: no
- Formati di risposta: Text, JSON, Markdown
Mistral-small-2503 completamento della chat (con immagini) - Input: testo e immagini (131.072 token),
I token basati su immagine sono 16 px x 16 px
blocchi delle immagini originali
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-small completamento conversazione - Input: testo (32.768 token)
- Output: testo (4.096 token)
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON

Vedere questa raccolta di modelli nel catalogo dei modelli di Intelligenza artificiale di Azure.

Esempi di inferenza: Mistral

Per altri esempi su come usare i modelli Mistral, vedere gli esempi e le esercitazioni seguenti:

Descrizione Lingua Esempio
Richiesta CURL Bash Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per C# C# Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per JavaScript JavaScript Collegamento
Pacchetto di inferenza di Intelligenza artificiale di Azure per Python Pitone Collegamento
Richieste Web Python Pitone Collegamento
SDK di OpenAI (sperimentale) Pitone Mistral - Esempio di OpenAI SDK
LangChain Pitone Esempio di Mistral - LangChain
Intelligenza artificiale Mistral Pitone Mistral - Esempio di intelligenza artificiale mistrale
LiteLLM Pitone Mistral - Esempio LiteLLM

Nixtla

TimeGEN-1 di Nixtla è un modello generativo pre-addestrato per la previsione e il rilevamento di anomalie nei dati delle serie temporali. TimeGEN-1 può produrre previsioni accurate per le nuove serie temporali senza training, usando solo i valori cronologici e le covariate esogene come input.

Per eseguire l'inferenza, TimeGEN-1 richiede l'uso dell'API di inferenza personalizzata di Nixtla.

Modello TIPO Capacità API di inferenza
TimeGEN-1 Previsioni - Immissione: Dati delle serie temporali come JSON o dataframe (con supporto per l'input multivariato)
- Prodotto: Dati delle serie temporali come JSON
- Chiamata dello strumento: no
- Formati di risposta: JSON
Client Forecast per interagire con l'API di Nixtla

Stimare il numero di token necessari

Prima di creare una distribuzione TimeGEN-1, è utile stimare il numero di token che si prevede di utilizzare e fatturare. Un token corrisponde a un punto dati nel set di dati di input o nel set di dati di output.

Si supponga di avere il set di dati della serie temporale di input seguente:

ID unico Marca temporale: Variabile di destinazione Variabile esogena 1 Variabile esogena 2
ESSERE 2016-10-22 00:00:00 70.00 49593.0 57.253,0
ESSERE 2016-10-22 01:00:00 37.10 46.073,0 51887,0

Per determinare il numero di token, moltiplicare il numero di righe (in questo esempio, due) e il numero di colonne usate per la previsione, senza contare le colonne unique_id e timestamp (in questo esempio, tre) per ottenere un totale di sei token.

Dato il set di dati di output seguente:

ID unico Marca temporale: Variabile di destinazione prevista
ESSERE 2016-10-22 02:00:00 46.57
ESSERE 2016-10-22 03:00:00 48.57

È anche possibile determinare il numero di token conteggiando il numero di punti dati restituiti dopo la previsione dei dati. In questo esempio il numero di token è due.

Stimare i prezzi in base ai token

Ci sono quattro contatori dei prezzi che determinano il prezzo che si paga. Questi contatori sono i seguenti:

Contatore prezzi Descrizione
token-di-input-per-inferenza-paygo Costi associati ai token usati come input per l'inferenza quando finetune_steps = 0
paygo-inferenza-token-di-uscita Costi associati ai token usati come output per l'inferenza quando finetune_steps = 0
paygo-modello-addestrato-inferenza-dati-di-input Costi associati ai token usati come input per l'inferenza quando finetune_steps> 0
output-tokens inferenza-del-modello-ottimizzato-paygo Costi associati ai token usati come output per l'inferenza quando finetune_steps> 0

Vedere la raccolta di modelli Nixtla nel catalogo dei modelli di Intelligenza artificiale di Azure.

DATI NTT

tsuzumi è un trasformatore ottimizzato per il linguaggio autoregressivo. Le versioni ottimizzate usano l'ottimizzazione con supervisione (SFT). tsuzumi gestisce sia la lingua giapponese che quella inglese con un'elevata efficienza.

Modello TIPO Capacità
tsuzumi-7b completamento conversazione - Input: testo (8.192 token)
- Output: testo (8.192 token)
- Chiamata dello strumento: no
- Formati di risposta: Testo

Stabilità dell'intelligenza artificiale

La raccolta di stabilità IA di modelli di generazione immagini include Stable Image Core, Stable Image Ultra e Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large consente un'immagine e un input di testo.

Modello TIPO Capacità
Diffusione stabile 3,5 grande Generazione di immagini - Input: testo e immagine (1000 token e 1 immagine)
- Risultato: 1 immagine
- Chiamata dello strumento: no
- Formati di risposta: Immagine (PNG e JPG)
Core immagine stabile Generazione di immagini - Input: testo (1000 token)
- Risultato: 1 immagine
- Chiamata dello strumento: no
- Formati di risposta: Immagine (PNG e JPG)
Immagine stabile Ultra Generazione di immagini - Input: testo (1000 token)
- Risultato: 1 immagine
- Chiamata dello strumento: no
- Formati di risposta: Immagine (PNG e JPG)

Esempi di inferenza: Stabilità dell'intelligenza artificiale

I modelli di Stability AI distribuiti nelle implementazioni standard utilizzano l'API di inferenza del modello di intelligenza artificiale di Azure sulla route /image/generations. Per esempi di come usare i modelli di intelligenza artificiale per la stabilità, vedere gli esempi seguenti: