Condividi tramite


Modelli supportati per le API dei modelli di Databricks Foundation

Questo articolo descrive i modelli aperti all'avanguardia supportati dalle API modello di Databricks Foundation.

Nota

Vedere Modelli di base supportati in Mosaic AI Model Serving per la disponibilità in aree di questi modelli e le aree di funzionalità supportate.

È possibile inviare richieste di query a questi modelli usando gli endpoint con pagamento in base al token disponibili nell'area di lavoro Databricks. Vedere Usare i modelli di base e la tabella dei modelli supportati con pagamento in base al token per i nomi degli endpoint del modello da usare.

Oltre a supportare i modelli in modalità a pagamento per token, le API del Modello Foundation offrono anche una modalità di elaborazione con provisioning. Databricks consiglia il throughput provisionato per i carichi di lavoro di produzione. Questa modalità supporta tutti i modelli di una famiglia di architetture di modelli (ad esempio, modelli DBRX), inclusi i modelli finemente ottimizzati e i modelli pre-addestrati personalizzati supportati in modalità a pagamento per token. Per l'elenco delle architetture supportate, vedere API del Modello di Base con Velocità Effettiva Preconfigurata (Provisioned throughput Foundation Model APIs).

È possibile interagire con questi modelli supportati usando AI Playground.

Meta Llama 4 Maverick

Importante

Vedere Licenze e condizioni per sviluppatori di modelli applicabili per la licenza community llama 4 e i criteri di utilizzo accettabili.

Llama 4 Maverick è un modello linguistico di grandi dimensioni all'avanguardia costruito e sottoposto a training da Meta. È la prima della famiglia di modelli Llama a usare una combinazione di architetture di esperti per l'efficienza di calcolo. Llama 4 Maverick supporta più lingue ed è ottimizzato per casi d'uso precisi di immagine e comprensione del testo. Attualmente, il supporto di Databricks di Llama 4 Maverick è limitato ai casi d'uso per la comprensione del testo. Scopri di più su Llama 4 Maverick.

Come con altri modelli linguistici di grandi dimensioni, l'output di Llama 4 può omettere alcuni fatti e occasionalmente produrre false informazioni. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Meta Llama 3.3 70B Istruzione

Importante

A partire dall'11 dicembre 2024, Meta-Llama-3.3-70B-Instruct sostituisce il supporto per Meta-Llama-3.1-70B-Instruct negli endpoint delle API dei modelli di base con pagamento per token.

Vedere Licenze e condizioni per sviluppatori di modelli applicabili per la licenza community LLama 3.3 e i criteri di utilizzo accettabili.

Meta-Llama-3.3-70B-Instruct è un modello linguistico di grandi dimensioni all'avanguardia con un contesto di 128.000 token creati e sottoposti a training da Meta. Il modello supporta più lingue ed è ottimizzato per i casi d'uso dei dialoghi. Altre informazioni su Meta Llama 3.3.

Analogamente ad altri modelli linguistici di grandi dimensioni, l'output di Llama-3 può omettere alcuni fatti e talvolta produrre informazioni false. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Meta Llama 3.1 405B Istruzione

Importante

L'uso di questo modello con le API del modello foundation è disponibile in anteprima pubblica. Contatta il team dell'account Databricks se si verificano errori agli endpoint o errori di stabilizzazione quando usi questo modello.

Vedere Licenze e condizioni per sviluppatori di modelli applicabili per la licenza community llama 3.1 e i criteri di utilizzo accettabili.

Meta-Llama-3.1-405B-Instruct è il modello di linguaggio su larga scala all'avanguardia più grande, creato e addestrato da Meta, e distribuito da Azure Machine Learning usando i modelli di AzureML. L'uso di questo modello consente ai clienti di sbloccare nuove funzionalità, ad esempio il ragionamento avanzato, il ragionamento in più passaggi e la generazione di dati sintetici di alta qualità. Questo modello è competitivo con GPT-4-Turbo in termini di qualità.

Come Meta-Llama-3.1-70B-Instruct, questo modello ha un contesto di 128.000 token e supporto in dieci lingue. Si allinea alle preferenze umane per l'utilità e la sicurezza ed è ottimizzato per i casi d'uso del dialogo. Altre informazioni sui modelli Meta Llama 3.1.

Analogamente ad altri modelli linguistici di grandi dimensioni, l'output di Llama-3.1 può omettere alcuni fatti e talvolta produrre informazioni false. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Meta Llama 3.1 8B Istruzioni

Importante

Vedere Licenze e condizioni per sviluppatori di modelli applicabili per la licenza community LLama 3.1 e i criteri di utilizzo accettabili.

Meta-Llama-3.1-8B-Instruct è un modello linguistico di grandi dimensioni all'avanguardia con un contesto di 128.000 token creati e sottoposti a training da Meta. Il modello supporta più lingue ed è ottimizzato per i casi d'uso dei dialoghi. Altre informazioni sul Meta Llama 3.1.

Analogamente ad altri modelli linguistici di grandi dimensioni, l'output di Llama-3 può omettere alcuni fatti e talvolta produrre informazioni false. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Anthropic Claude Sonnet 4

Importante

I clienti sono responsabili di garantire la conformità alle condizioni dei criteri di utilizzo accettabili di Anthropic. Vedi anche il Contratto Master per i Servizi Cloud di Databricks.

Claude Sonnet 4 è un modello di ragionamento ibrido all'avanguardia costruito e sottoposto a training da Anthropic. Questo modello offre due modalità: risposte quasi istantanee e pensiero esteso per un ragionamento più approfondito basato sulla complessità dell'attività. Claude Sonnet 4 è ottimizzato per varie attività, ad esempio lo sviluppo di codice, l'analisi dei contenuti su larga scala e lo sviluppo di applicazioni agente.

Come per altri modelli linguistici di grandi dimensioni, l'output di Claude Sonnet 4 può omettere alcuni fatti e talvolta produrre false informazioni. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Questo endpoint è ospitato da Databricks Inc. in AWS all'interno del perimetro di sicurezza di Databricks.

Anthropic Claude Opus 4

Importante

I clienti sono responsabili di garantire la conformità alle condizioni dei criteri di utilizzo accettabili di Anthropic. Vedi anche il Contratto Master per i Servizi Cloud di Databricks.

Claude Opus 4 è un modello di ragionamento ibrido all'avanguardia costruito e addestrato da Anthropic. Questo modello offre due modalità: risposte quasi istantanee e pensiero esteso per un ragionamento più approfondito basato sulla complessità dell'attività. Claude Opus 4 è ottimizzato per varie attività, ad esempio la generazione avanzata del codice, l'orchestrazione dell'agente, la ricerca tra origini, la creazione di contenuti e il riepilogo usando la conservazione del contesto.

Come per altri modelli linguistici di grandi dimensioni, l'output di Claude Opus 4 può omettere alcuni fatti e talvolta produrre false informazioni. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Questo endpoint è ospitato da Databricks Inc. in AWS all'interno del perimetro di sicurezza di Databricks.

Anthropic Claude 3.7 Sonetto

Importante

I clienti sono responsabili di garantire la conformità alle condizioni dei criteri di utilizzo accettabili di Anthropic. Vedi anche il Contratto Master per i Servizi Cloud di Databricks.

Claude 3.7 Sonnet è un modello di ragionamento ibrido all'avanguardia costruito e sottoposto a training da Anthropic. Si tratta di un modello linguistico di grandi dimensioni e di ragionamento in grado di rispondere rapidamente o estenderne il ragionamento in base alla complessità dell'attività. Quando si usa la modalità di pensiero esteso, i passaggi di ragionamento di Claude 3.7 Sonnet sono visibili all'utente. Claude 3.7 Sonnet è ottimizzato per varie attività, ad esempio generazione di codice, ragionamento matematico e istruzioni seguenti.

Come con altri modelli linguistici di grandi dimensioni, l'output di Claude 3.7 può omettere alcuni fatti e talvolta produrre false informazioni. Databricks consiglia di usare la generazione aumentata (RAG) di recupero in scenari in cui l'accuratezza è particolarmente importante.

Questo endpoint è ospitato da Databricks Inc. in AWS all'interno del perimetro di sicurezza di Databricks.

GTE Large (En)

Importante

GTE Large (En) è fornito in e soggetto alla licenza apache 2.0, copyright (c) Apache Software Foundation, tutti i diritti riservati. I clienti sono responsabili di garantire la conformità alle licenze del modello applicabili.

General Text Embedding (GTE) è un modello di incorporamento di testo in grado di eseguire il mapping di qualsiasi testo a un vettore di incorporamento di dimensioni 1024 e a una finestra di incorporamento di 8192 token. Questi vettori possono essere usati negli indici vettoriali per IMS e per attività come il recupero, la classificazione, la risposta alle domande, il clustering o la ricerca semantica. Questo endpoint serve la versione inglese del modello e non genera incorporamenti normalizzati.

I modelli di embedding sono particolarmente efficaci quando vengono usati in combinazione con modelli linguistici su larga scala per i casi d'uso di generazione aumentata con recupero (RAG). GTE può essere usato per trovare frammenti di testo pertinenti in blocchi di documenti di grandi dimensioni che possono essere usati nel contesto di un LLM.

BGE Large (en)

BGE (General Embedding) di BAAI è un modello di incorporamento di testo in grado di eseguire il mapping di qualsiasi testo a un vettore di incorporamento di dimensioni 1024 e a una finestra di incorporamento di 512 token. Questi vettori possono essere usati negli indici vettoriali per IMS e per attività come il recupero, la classificazione, la risposta alle domande, il clustering o la ricerca semantica. Questo endpoint serve la versione inglese del modello e genera incorporamenti normalizzati.

I modelli di embedding sono particolarmente efficaci quando vengono usati in combinazione con modelli linguistici su larga scala per i casi d'uso di generazione aumentata con recupero (RAG). BGE può essere usato per trovare frammenti di testo pertinenti in blocchi di documenti di grandi dimensioni che possono essere usati nel contesto di un LLM.

Nelle applicazioni RAG è possibile migliorare le prestazioni del sistema di recupero includendo un parametro di istruzione. Gli autori di BGE consigliano di provare l'istruzione "Represent this sentence for searching relevant passages:" per gli incorporamenti di query, anche se l'impatto sulle prestazioni dipende dal dominio.

Risorse aggiuntive