Condividi tramite


Gateway di intelligenza artificiale

Importante

Questa pagina illustra il nuovo gateway di intelligenza artificiale (visibile nel riquadro di spostamento sinistro dell'interfaccia utente), attualmente in versione beta. Gli amministratori dell'account possono abilitare l'accesso a questa funzionalità nella pagina Anteprime della console dell'account. Consultare Gestisci anteprime Azure Databricks.

Per informazioni dettagliate sulla versione precedente del gateway di intelligenza artificiale, vedere Gateway di intelligenza artificiale per la gestione degli endpoint.

Il Databricks AI Gateway è il livello centrale di governance per gli endpoint LLM, i server MCP e gli agenti di codifica. Usare il gateway di intelligenza artificiale per analizzare l'utilizzo, configurare le autorizzazioni, applicare protezioni e gestire la capacità tra i provider.

Gli LLM

Il gateway di intelligenza artificiale offre governance aziendale per endpoint e agenti di codifica LLM, tra cui un'interfaccia utente unificata, una migliore osservabilità e una copertura api estesa.

Argomento Descrzione
Gateway di intelligenza artificiale per gli endpoint di LLM Informazioni su Gateway di intelligenza artificiale (Beta) per gli endpoint LLM e su come iniziare.
Configurare gli endpoint del gateway di intelligenza artificiale Creare e configurare gli endpoint del gateway AI per i tuoi LLM e agenti di programmazione.
Eseguire query sugli endpoint del gateway di intelligenza artificiale Eseguire query sugli endpoint del gateway di intelligenza artificiale usando il client OpenAI e altre API supportate.
Monitorare l'utilizzo per gli endpoint del gateway di intelligenza artificiale Monitorare l'utilizzo e i costi per gli endpoint del gateway di intelligenza artificiale usando le tabelle di sistema.
Monitorare i modelli usando le tabelle di inferenza Monitorare e controllare le richieste e le risposte nelle tabelle Delta del catalogo Unity.
Configurare i limiti di frequenza per gli endpoint del gateway di intelligenza artificiale Applicare i limiti di consumo per gli endpoint del gateway di intelligenza artificiale per gestire capacità e costi.
Integrazione con agenti di codifica Integrare agenti di codifica come Cursor, Gemini CLI, Codex CLI e Claude Code con il gateway di intelligenza artificiale.

Annotazioni

Le funzionalità del gateway di intelligenza artificiale non comportano addebiti durante la versione beta.

MCP

Il gateway AI fornisce la governance per i server MCP, offrendo visibilità, controllo degli accessi e logging di audit per tutte le interazioni MCP.

Argomento Descrzione
Model Context Protocol (MCP) su Databricks Informazioni sui tipi di server MCP in Databricks e su come iniziare.
Usare server MCP gestiti da Databricks Accedere immediatamente alle funzionalità di Databricks usando server MCP preconfigurato.
Usare server MCP esterni Connettersi in modo sicuro ai server MCP ospitati all'esterno di Databricks usando connessioni gestite.
Ospitare server MCP personalizzati con app Databricks Ospitare un server MCP personalizzato come app Databricks.
Connettere i client non Databricks ai server MCP di Databricks Connettere i client MCP ai server MCP di Databricks.

Modello che gestisce gli endpoint (precedente)

La versione precedente di Gateway di intelligenza artificiale offre funzionalità di governance per i modelli che servono gli endpoint, inclusi gli endpoint del modello esterno, gli endpoint dell'API del modello di base e gli endpoint del modello personalizzati.

Argomento Descrzione
Gateway di intelligenza artificiale per la gestione degli endpoint Informazioni sulle funzionalità del gateway di intelligenza artificiale per la gestione degli endpoint, incluse le funzionalità e le limitazioni supportate.
Configurare AI Gateway sugli endpoint di erogazione dei modelli Configurare le funzionalità del gateway di intelligenza artificiale, ad esempio il rilevamento dell'utilizzo, la registrazione del payload, i limiti di frequenza e le protezioni in un endpoint di gestione del modello.
Monitora i modelli serviti utilizzando le tabelle di inferenza abilitate dal Gateway AI Monitorare i modelli erogati usando le tabelle di inferenza abilitate tramite AI Gateway.